大模型竞争格局生变:底层技术优势不再是决胜关键,围绕MCP协议与超级Agent生态的构建能力正成为释放应用价值的核心竞技场。
就在上周五的Create 2025百度AI开发者大会上,百度智能云千帆大模型平台亮出了自己的最新打法:集成百度自研、第三方等上百个业界知名模型,提供全面的模型定制、精调工具链,上线企业级Agent开发工具链、全面拥抱MCP协议。
百度智能云已经围绕模型服务、模型开发、应用开发,打造出覆盖大模型深入企业应用全生命周期的开发平台。百度创始人、董事长兼CEO李彦宏一语道破当下AI发展的关键走向:“模型会有很多,但真正统治这个世界的是应用,应用才是王者。”
在AI技术狂飙突进的当下,MCP协议与超级Agent的崛起正掀起一场颠覆性的生产力革命。MCP作为AI世界的 “通用插头”,打破了模型与外部工具的连接壁垒,而超级Agent凭借强大的自主决策和任务执行能力,借助MCP整合多元资源,将AI应用效能推向新高度。
大模型竞争进入深水区,比拼重心从AI的“智力上限”转向应用的“需求适配”,一场关乎生存与淘汰的生产力革命正在上演。
01.一站式智能基础设施布局打通大模型应用“最后一公里”
智能体生态进入高速扩张期,其背后为企业构建应用带来的挑战也愈发多元。但企业的核心需求一脉相承:“精准适配”与“稳健落地”。
其需满足垂直领域的精细化需求、通过多元工具组合,实现功能集成与效率优化。模型部署的计算性能、应用开发的稳定性与可扩展性、数据安全保障,成为贯穿全流程的硬性指标,直接影响应用落地的实际效果与长期价值。
这些环节紧密关联、缺一不可,千帆大模型平台在其中扮演的角色就是提供全链路能力为企业赋能,并在精准锚定企业需求的同时为企业加速、简化复杂流程。
正如百度集团执行副总裁、百度智能云事业群总裁沈抖所说:“百度智能云一直在做的,就是打造一套智能基础设施,最大限度地降低客户、伙伴的试错成本,让创新更容易。”
此次,百度智能云打造的智能基础设施实现了从算力、模型到应用的系统级能力升级,并已经在多个企业场景稳定运行。
纵观大模型行业,企业对场景化应用开发的探索,正与拥有全栈技术支撑的大模型平台联动,构成驱动应用生态繁荣的核心双引擎,毫无疑问,推动好用的应用扎根企业核心业务场景,已然成为这场技术角逐的胜负分水岭。
02.模型侧:精准定制、高效开发解锁企业专属引擎
对企业而言,模型性能优劣直接映射为应用体验的好坏,成为影响用户留存与业务价值释放的关键变量。这也就是沈抖为什么说“模型效果直接决定应用体验”。
在模型层,千帆大模型平台瞄准了模型调用和开发这两件事。
模型调用就是让企业有足够多的模型可选,千帆大模型平台已经集成超100个模型,包含最新发布的文心大模型4.5 Turbo和深度思考模型X1 Turbo等百度自研文心系列模型,以及DeepSeek、Llama、通义千问、生数科技Vidu等第三方语言、多模态模型。
模型开发针对的就是企业对于模型需求从“通用适配”到“专属定制”的过程。大模型落地进程中,通用模型已难以满足企业差异化需求,定制专精模型的市场需求持续攀升,成为智能化转型新刚需。
千帆大模型平台提供的全栈工具就给予了企业开箱即用的模型定制能力。具体来看,从数据管理、模型精调、模型评估优化到预测服务部署等,千帆大模型平台以一体化工具链贯穿模型开发全流程,可以支持对深度思考、多模态等各类模型的定制和精调。
具体到不同行业,招聘实际上是一个十分典型的场景,其需要满足高实时性、多模态处理、高并发稳定性、低成本等,现有的行业深度思考模型虽然一定程度上能提升其服务效率与质量,但实际运行会使得推理延迟、成本高的问题凸显。
因此,国内头部招聘平台智联招聘在感知到通用深度思考模型难以满足高并发场景下用户需求后,基于千帆大模型平台工具链进行了模型蒸馏,实现了模型性能不变,成本降低至原来的1/3的效果。
其以千亿参数DeepSeek-R1作为“教师模型”、百亿参数ERNIE Speed作为“学生模型”,通过对DeepSeek-R1进行蒸馏得到数据集,然后基于该数据集精调学生模型。
2025年大模型迭代步入“快车道”,面对模型更新周期大幅缩短,行业对应用价值是否会被快速迭代浪潮稀释的疑虑日益加深。
以智联招聘为代表的实践案例恰好解答了当下产业中的一大疑虑:优质工具就像精准咬合的“适配齿轮”,能将瞬息万变的技术与企业需求紧密衔接,在业务与技术的深度碰撞中,让应用价值持续沉淀。
就像李彦宏强调的那样“只要找对场景、选对基础模型、会调模型,做出来的应用就不会过时”。
03.应用侧:加速Agent生态繁荣企业级AI协作新范式
模型层虽构筑起强大的能力底座,但距离其真正高效执行任务仍有进阶空间。被认为是大模型应用落地最佳载体的Agent生态布局,成为弥合大模型能力与企业业务的关键。
千帆大模型平台于2023年9月就发布了Agent框架,2024年9月升级企业级Agent,今年3月,率先在国内实现对MCP协议的全生态兼容。时至今日,其集成的Agent相关能力愈发完善。
如今,Agent在实际应用中需要为企业进行定制的需求增加。
这是因为Agent需要结合企业私域数据、企业知识库,基于行业经验以及对业务场景的个性化理解去执行任务;为了Agent遵循企业规范,需要企业标准SOP(标准作业流程)定制化训练;Agent需要跨平台、跨工具调用能力,整合各类资源与技术组件;最后是安全稳定,使Agent实现全流程可追溯与动态调控。
而这些,都可以在千帆大模型平台上迎刃而解,此次千帆大模型平台再次升级了自家的装备库:智能体Pro、企业级MCP服务。
百度智能云应用平台部总经理朱广翔将智能体Pro比作最强图书管理员、资深研究员和电脑极客。其既能自主拆解问题、推理、查找资料、总结反思,直到给出满意答案,还能解决数据分析、图表绘制、撰写报告的全方位调研任务,甚至模拟人玩电脑或者在企业端操作业务系统,真正实现全栈自主与智能化。
智能体Pro已经落地污水宝中的污水处理项目信息聚合平台之中,为其定制的Agent既需要检索分散、区域性强的中小型项目,还要精准对接工程单位和招标信息。
基于千帆大模型平台中的一系列工具,企业可以输入指令关联知识库,然后快速生成定制Agent。实际操作过程中,这一Agent可以在企业内部知识库中查找历史招投标数据,然后对百万项目进行多轮检索,再基于互联网公开信息补充生成完整报告,报告中还包含可溯源的链接。
MCP作为时下最火爆的协议之一,其实现了统一工具接口和降低开发门槛。千帆大模型平台也成为国内最早全面拥抱MCP协议的平台之一,此次其推出企业级MCP服务,并接入超过1000个MCP servers。开发者可以基于千帆大模型平台提供的工具链自主开发MCP servers,并一键发布到千帆MCP广场。
这种低门槛、高效率的开发模式,正全面激活Agent生态爆发。
04.结语:一站式赋能破局激活大模型应用价值
百度智能云千帆大模型平台这样一站式赋能的平台,正成为当下大模型价值爆发的底座,全方位承载企业智能化转型需求。至今,千帆平台覆盖的客户已经超过40万家,在央企渗透率超过60%,精调模型超过4.5 万个,开发应用超100万个。海量的行业落地实践持续反哺平台迭代,使得其形成了“应用实践、技术优化、能力升级”的正向循环。
与此同时,智能超参数的数据显示,今年第一季度,百度智能云实现了大模型中标项目数量和中标金额上的双第一。这些都证明,从模型调用、开发到应用开发一应俱全,并结合“资源+工具+场景”全套服务的千帆大模型平台,已经在降低企业开发成本、简化复杂流程上突围。
大模型应用潮涌起,我们已经预见伴随着MCP生态和超级Agent的繁荣,大模型的技术红利真正转化为企业降本增效、创新增长的实际价值。这场革命也催生了新的机遇,唯有拥抱变化、主动转型。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。