news 2026/5/15 16:58:50

从智谱AI上市看大模型发展:GLM技术如何赋能企业与开发者

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
从智谱AI上市看大模型发展:GLM技术如何赋能企业与开发者

智谱AI成功在港交所上市,成为"全球大模型第一股"。作为中国领先的AI公司,智谱通过MaaS模式已赋能12000家企业客户、8000万台设备及4500万名开发者。其GLM-4.5基座模型在全球排名第三、中国第一。大语言模型市场预计2030年将达1011亿元,年复合增长率63.5%。


智谱(02513.HK)今日成功在港交所主板上市,正式成为“全球大模型第一股”,中金公司为独家保荐人。智谱本次IPO香港公开发售获1159.46倍认购,国际发售获15.28倍认购。

作为国内商业化起步较早的大模型厂商,智谱以MaaS模式,即通过API调用向开发者和企业输出智能能力。智谱云端MaaS和订阅业务呈现指数级增长趋势,MaaS平台的企业和开发者用户数超290万。截至目前,智谱大模型已赋能了全球12000家企业客户、逾8000万台终端用户设备及超4500万名开发者,是中国赋能终端设备最多的独立通用大模型厂商,在中国独立通用大模型开发商中位列第一。

本次智谱香港IPO引入基石投资者包括JSC International Investment Fund SPC(为及代表Qizhi SP行事)、JinYi Capital Multi-Strategy Fund SPC Ltd.(为及代表Structured Credit SP Fund行事)、PerseverancAsset Management、上海高毅及CICC Financial Trading Limited(就高毅场外掉期而言)、WT Asset Management、泰康人寿、广发基金、3W Fund、雾凇、Optimas Capital Limited及凌云光技术国际有限公司。

今日开盘,智谱涨3.27%,报120.00港元/股,市值528.28亿港元。

据招股书,智谱是中国领先的人工智能公司,致力于开发先进的通用大模型。2019年,公司秉承着在中国追求通用人工智能(AGI)创新的大胆理念而创立。公司于全方位的人工智能研究中扎实交付先进技术,并稳步扩大其商业应用,以实现收入的快速增长。

2021年,智谱发布了中国首个专有预训练大模型框架GLM框架,并推出了公司的模型即服务(MaaS)产品开发及商业化平台,透过该平台提供公司的大模型服务。于2022年,公司开源首个1,000亿规模的模型(GLM-130B)。公司运营于大语言模型(LLM)市场,其为更广泛AI市场的一个细分领域。

智谱为机构客户(包括私营企业及公共行业实体)及个人用户(包括个人终端用户及独立开发者)提供通用大模型服务。截至2025年6月30日,公司的模型已为逾八千家机构客户提供支持,截至最后实际可行日期,已为约8000万台设备提供支持。

根据弗若斯特沙利文的资料,按2024年的收入计,智谱在中国独立通用大模型开发商中位列第一,在所有通用大模型开发商中位列第二,市场份额为6.6%。

于往绩记录期,公司实现收入显著增长。于2022年、2023年及2024年,智谱的收入分别为5740万元(人民币,下同)、1.25亿元及3.12亿元,复合年增长率为130%以上。截至2024年及2025年6月30日止六个月,公司的收入分别为4490万元及1.91亿元。

尽管公司的业务实现持续增长,但智谱于2022年、2023年、2024年以及截至2024年及2025年6月30日止六个月分别录得年内亏损1.44亿元、7.88亿元、29.58亿元、12.36亿元及23.58亿元。

于往绩记录期,亏损主要由于公司对研发作出重大投资。公司的研发开支由2022年的8440万元增至2023年的5.29亿元,并进一步增至2024年的21.95亿元。公司的研发开支由截至2024年6月30日止六个月的8.59亿元增加85.6%至2025年6月30日的15.95亿元。

随着智谱将技术商业化以把握住先进的人工智能带来的巨大市场机遇,公司围绕一体化MaaS平台组织产品供应。公司的MaaS平台主要提供四类模型:语言模型、多模态模型、智能体模型及代码模型,以及用于模型微调、部署及智能体开发的集成工具。

公司MaaS平台的主要优势为模型能力全面覆盖、应用场景广泛扩展性及多元化算力基础设施适应性。尽管算力基础设施、终端设备及应用程序中存在较大异构性,但通过该产品开发及商业化平台,公司以最适配、合理及可扩展的方式,向机构客户、开发者及个人客户提供智能服务。

智谱的MaaS平台包含以下三个层级:

全面的模型组合。公司已建立全面的先进AI模型组合,在语言、多模态、智能体及代码能力方面展示出行业领先的性能。从公司广泛而强大的产品组合中,客户和开发者总能找到最适合其特定需求的解决方案。

可扩展的应用。公司的模型及智能体旨在跨多样化硬件、跨应用场景、跨业务工作流程无缝进行工具调用并执行复杂任务,支持AI原生的多模态复杂对话及深度推理。例如,公司的模型及智能体可协助机构客户优化业务工作流程、大规模处理及分析运营数据及支持决策制定。

此外,公司的MaaS平台提供了一个智能体工作区,其中包含各种智能体模板及基于场景的解决方案。通过该智能体工作区,公司的客户可通过简化的模型微调、增量模型训练及提示工程,迅速定制智能体。

便捷的基础设施适配性。公司与算力基础设施合作伙伴携手共同设计先进的算力基础设施,使公司的MaaS平台能够提供集成计算、网络、训练通信以及推理加速能力。该合作亦使公司的模型具备广泛的适配性,支持从15亿到2,300亿参数的模型规模,并能够实现大规模、实时的跨云及芯片组部署。尤其是,此适配性使公司的模型能够扩展到大众使用设备,如手机、个人计算机及智能汽车,并惠及大量终端消费者。

公司的MaaS平台提供灵活的自定义模型部署选项,以满足企业的多样化需求,同时保持效率、可扩展性和数据安全性。公司主要提供两种部署方式:本地化部署和云端部署:

对于本地化部署,公司的模型托管在客户自己的基础设施内。此方法使组织能够利用其专有或敏感数据,定制私域专属AI模型。本地化部署提供了对性能优化和基础设施配置的更大控制权,使其适用于复杂或高度专业化的应用场景。

对于云端部署,公司的模型托管在可扩展且可靠的云端基础设施上。此方法适合寻求敏捷性和易于实施性的企业。利用云端,客户无需昂贵的本地基础设施,从而能够快速且经济高效地部署AI解决方案。

就本地化部署而言,公司于大模型及相关服务交付至客户指定地点并经客户检验验收时确认收入。就云端部署而言,公司于合约期内确认收入。具体而言,对于以订阅为基础的合约,公司通常于合约期内按比例确认收入。对于以使用量为基础的合约,公司在向客户提供服务时根据客户对资源的利用情况确认收入。

招股书显示,为了让机器像人一样思考,智谱必须赋予AI三种核心的人类能力:深度思考、认知世界及工具使用。公司据此开发了公司的AI模型,其可分为三个相应类别:反思及沉思模型、多模态模型及智能体模型。公司亦开发了代码模型,其可以自动生成代码并提升编程效率。所有四个类别均基于公司的GLM系列基座模型开发。基座模型以及反思及沉思模型均属更广泛的语言模型类别。

基座模型为预训练大语言模型,作为开发各种专业模型的基础。GLM-4.5为公司的旗舰基座模型,发布时即已开源。通过多阶段训练并结合微调与强化学习的全方位后训练,GLM-4.5在智能体、推理及编码任务上均展现出卓越性能。

该模型亦支持多模态扩展与大语境处理功能,可解读高阶提示词并自主生成实用型解决方案。GLM-4.5的模型参数规模达3,550亿,同时公司亦研发出轻量级版本GLM-4.5-Air,其参数规模为1,060亿。

根据弗若斯特沙利文的资料,GLM-4.5取得以下领先地位:基准测试。依据2025年7月进行的12项业界标准基准测试1的评估结果,GLM-4.5在全球排名第三、在中国跃居第一及全球开源模型位居榜首。GLM-4.5在该十二项基准测试中获得了63.2的综合评分,而行业同类模型的得分范围则介于46.3至65.0之间。

全球排行榜。于2025年9月,GLM-4.5在ChatbotArena及WebDevArena全球排行榜中位列第五,上述排行榜均为业界公认的全球排行榜,分别对大模型的整体功能及编码功能进行排名。

token消耗量。自GLM-4.5发布及直至最后实际可行日期,公司在OpenRouter(一家提供各类大模型API访问权限的全球领先平台)上的token消耗量持续居于全球前十及中国前三。这种稳定的表现凸显了GLM-4.5强大的竞争力及市场认可度,展现了其先进的效能、可扩展性及实际可用性。

人气排名。于首发后仅48小时内,GLM-4.5便跃居HuggingFace(全球最大开源模型平台)热门榜上全球榜首。

幻觉率。于2025年9月,根据检索增强生成(RAG)领域的LLM幻觉排行榜,GLM-4.5的幻觉率为全球第二低及中国最低。该基准测试通过向大模型发出故意误导性问题,依据大模型生成不存在答案(即幻觉)的频率对其进行评估。

2025年9月,公司发布GLM-4.6,GLM-4.6为公司基座模型的进一步升级版本,主要强化了编码能力。2025年11月,GLM-4.6于CodeArena上位列全球第一,该平台是业界最新公认、专为评测模型编码能力而设计的全球性评估系统。

反思及沉思模型在生成答案前会花费额外时间“深度思考”,这使其更适用于复杂推理任务。基于基座模型,公司构建了反思模型(GLM-Z1)与沉思模型(GLM-Z1-Rumination)。

GLM-Z1为一种专攻确定性命题,致力于提供更精确、更准确的解决方案的反思模型。其基于基座模型,通过扩展强化学习及进一步的数学、代码与逻辑任务专项训练开发而成。

GLM-Z1-Rumination专攻不确定性命题,尤其是需迭代收集处理外部信息的开放性探索问题。与GLM-Z1相比,GLM-Z1-Rumination能够通过更深入持久的思考并使用工具解决更为开放性的复杂问题。

多模态模型能够处理并整合来自不同模态的信息,例如文本、图片、音频和视频。公司已开发服务于不同功能的多模态模型,如CogView(图像生成)、GLM-4.5V(视觉理解及推理)、CogVideoX(视频生成)、GLM-Realtime(实时视频通话)及GLM-4-Voice(语音模型)。

AI Agent整合推理、规划与工具使用能力,可在无需持续人工输入下自主执行多步骤任务。

公司的基座智能体模型是AutoGLM。AutoGLM标志着公司AI宇宙从“对话”到“执行”的重大演进,弥合了对话式AI与现实任务执行的鸿沟。作为专为通过图形用户界面(GUI)自主控制数字设备设计的基座智能体,AutoGLM将类人推理转化为具体行动。AutoGLM在AgentBench(斯坦福大学《2024年AI指数》报告认证的智能体AI基准)实现SOTA性能。

于2025年8月,公司发布AutoGLM的升级版本(亦称“AutoGLM 2.0”),由当时最新的基座模型GLM-4.5及视觉理解及推理模型GLM-4.5V驱动。该升级版本使AutoGLM能够在更广泛的移动应用程序及网站中模拟人类操作行为,并可在云端自主完成指定任务,无需占用用户的手机或计算机,让用户可继续使用其设备而不会中断。

AutoGLM Rumination是AutoGLM的高级版,为一款专为探索开放式命题并根据其发现结果采取行动而设计的自主AIagent。AutoGLM Rumination的特点是“边想边干”——其融合GLMZ1-Rumination模型的出色推理能力与AutoGLM的交互操作能力。AutoGLM Rumination可处理需深度推理、迭代研究及产出可执行结果的复杂任务。

公司已开发出CoCo(一款先进的企业级AIagent,专为企业环境中的智能自动化而设计)。

CodeGeeX是旨在提升编程效率与简化工作流程的强大代码模型。其使开发者可基于自然语言描述自动生成代码,或补全未完成代码行或代码块,显著提升生产效率。

截至最后实际可行日期,上述精选模型及智能体已商业化。

作为一家大模型公司,公司于大语言模型市场运营,其为AI市场的一个分支。近年来,特别是2022年以来,大语言模型的发展经历了巨大的飞跃。目前最前沿的研究主要在美国和中国开展,两国都涌现出了一批领军公司。

以收入计,2024年中国大语言模型市场规模已达到人民币53亿元,其中机构客户贡献人民币47亿元,个人客户贡献人民币6亿元。随着大语言模型技术的不断进步以及机构与个人用户需求的不断增长,估计到2030年该市场规模将增至人民币1,011亿元,2024年至2030年的复合年增长率为63.5%。机构客户仍将是市场增长的核心驱动力,估计到2030年中国企业级大语言模型市场规模将达到人民币904亿元,2024年至2030年的复合年增长率为63.7%。

中国大语言模型市场的参与者可分为独立提供商及非独立提供商。独立提供商从业务开展初期就具备大语言模型技术原生、大语言模型产品原生及大语言模型商业模式原生的特点;而非独立提供商则通常为涉足AI领域的科技巨头。

与非独立提供商相比,独立提供商面临着非常不同的竞争动态。例如,非独立提供商利用其原有的多元化业务线,积累了庞大的用户群,这有利于其大语言模型产品的推广。然而,另一方面,如果科技巨头经营的业务线与客户自己的业务直接竞争,企业客户可能不愿意选择其提供的大语言模型产品。

此外,若干行业的企业客户对进入或可能进入若干科技巨头的影响范围十分谨慎,且更倾向于采用“纯粹(pure-play)”提供商的AI解决方案。

截至最后实际可行日期,智谱在中国拥有86项注册专利,其中84项为发明专利,及在中国提出234项专利申请。截至同日,公司在中国拥有160项著作权、314个商标及58个域名。

招股书显示,智谱的股东包括美团、蚂蚁集团、清华资产管理、今日资本等。

智谱本次香港IPO募资金额约70.0%将用于持续增强公司在通用AI大模型方面的研发能力;约10.0%将用于通过提供最新的基座模型以及训练/推理工具及基础设施持续优化公司的MaaS平台;约10.0%将用于发展业务合作伙伴网络以及进行战略投资;及约10.0%将用于营运资金及其他一般企业用途。

如何系统的学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

01.大模型风口已至:月薪30K+的AI岗正在批量诞生

2025年大模型应用呈现爆发式增长,根据工信部最新数据:

国内大模型相关岗位缺口达47万

初级工程师平均薪资28K(数据来源:BOSS直聘报告)

70%企业存在"能用模型不会调优"的痛点

真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!

02.大模型 AI 学习和面试资料

1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工

📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)





第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/5 19:30:19

程序员转行大模型开发全攻略:4大热门方向+学习路线详解(必藏)_大龄程序员想转行大模型,应该往哪个方向转?

文章介绍了程序员转行到大模型开发的四个方向:NLP工程师、CV工程师、算法工程师和部署工程师,详述各方向优势与学习路线。文章指出大模型岗位需求旺盛、薪资高,并提供了完整学习资源包,包括系统学习路线、报告、书籍和实战案例&am…

作者头像 李华
网站建设 2026/5/12 4:40:53

中文NER模型可解释性:RaNER决策过程分析

中文NER模型可解释性:RaNER决策过程分析 1. 引言:AI 智能实体侦测服务的背景与挑战 在信息爆炸的时代,非结构化文本数据(如新闻、社交媒体、文档)占据了互联网内容的绝大部分。如何从中高效提取关键信息,…

作者头像 李华
网站建设 2026/5/8 5:10:25

AI智能实体侦测服务消息队列:Kafka异步处理大批量文本任务

AI智能实体侦测服务消息队列:Kafka异步处理大批量文本任务 1. 引言:AI 智能实体侦测服务的工程挑战 随着自然语言处理(NLP)技术在信息抽取、知识图谱构建和内容审核等场景中的广泛应用,命名实体识别(Name…

作者头像 李华
网站建设 2026/5/5 9:05:23

混元翻译1.5版本对比:1.8B与7B模型选择

混元翻译1.5版本对比:1.8B与7B模型选择 1. 技术背景与选型挑战 随着全球化进程加速,高质量、低延迟的机器翻译需求日益增长。在多语言交流、跨境内容生产、实时语音翻译等场景中,翻译模型不仅要具备高准确率,还需兼顾部署成本与…

作者头像 李华
网站建设 2026/5/11 0:18:44

HY-MT1.5-1.8B量化实战:FP16/INT8精度对比

HY-MT1.5-1.8B量化实战:FP16/INT8精度对比 近年来,随着大模型在自然语言处理领域的广泛应用,高效部署成为落地关键。腾讯开源的混元翻译大模型HY-MT1.5系列,凭借其卓越的翻译性能和灵活的部署能力,迅速引起业界关注。…

作者头像 李华
网站建设 2026/4/23 5:28:18

中文实体识别不准?AI智能实体侦测服务高精度解决方案

中文实体识别不准?AI智能实体侦测服务高精度解决方案 1. 背景与挑战:中文命名实体识别的痛点 在自然语言处理(NLP)领域,命名实体识别(Named Entity Recognition, NER) 是信息抽取的核心任务之…

作者头像 李华