news 2025/12/27 2:23:07

百度百舸持续开源生产级代码,联合 SGLang 社区打造先进 AI Infra

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
百度百舸持续开源生产级代码,联合 SGLang 社区打造先进 AI Infra

当前,Token 的消耗量呈现出年均百倍增长的态势。国家数据局统计显示,截至今年6月底,我国日均Token消耗量从2024年初的1000亿,已经突破至30万亿,1年半时间增长了300多倍。

随着以DeepSeek、Ernie 为代表的 MoE 类推理模型爆火,大规模分布式推理系统的建设成了支持 AI 落地的挑战。推理成本、推理效率、推理稳定性,正在取代参数规模,成为决定AI商业化上限的关键变量。

围绕这一新的行业挑战,在12月14日由百度百舸与SGLang社区联合主办的技术分享活动上,百度百舸将自己在生产系统上的最新实践成果,SGLang将业界最新成果和动态,做了一次系统性分享。

百度百舸持续开源生产级代码,联合 SGLang 社区打造先进 AI Infra

在活动开场致辞中,百度智能云AI计算首席科学家王雁鹏明确表示:百度百舸正在将生产级代码持续开源到开源社区。百度在大规模生产环境中积累的大模型训推系统的各种能力,包括经过大规模系统打磨过的高度稳定的、高度优化的各种核心组件,都将逐一向行业分享。

同时,王雁鹏强调,开源并非一时的决定,而是百度坚信的技术方向和演进路径。未来,百度会持续联合各个社区,以开源的力量推动行业共同成长。

百度智能云AI计算首席科学家王雁鹏

作为大模型时代崛起的重要开源项目之一的SGLang,百度智能云10月份携手SGLang社区,将一套针对DeepSeek-V3.2推理性能优化的 MTP(Multi-Token Prediction,多token预测)技术代码正式开源。SGLang 社区表示这是一项巨大的贡献,社区实测显示,采用这套技术,DeepSeek-V3.2模型解码吞吐量能提升超过2倍。

在王雁鹏看来,推理引擎正变得越来越重要。智能经济时代,推理引擎消耗的算力,将成为最核心的生产资料。如果推理成本做不到足够低,身处大模型产业链上的玩家,就将失去竞争力,难以获取Scaling的效益。

在本次 Meetup 中,百度百舸团队围绕如何建设大规模分布式推理基础设施、DeepSeek V3.2 推理引擎等方面展开了系统性分享。

百度主任架构师田健重点介绍了百度百舸在大规模分布式推理集群基础设施上的实践。

随着大模型到达千亿、万亿规模的时代,其推理的部署也遇到了“不可能三角”的挑战,需要在模型规模指数级增长、部署效率与稳定性和资源成本与弹性之间,寻求新的平衡。

百度百舸新一代大规模分布式推理基础设施,以三大核心支柱破解大模型部署困局:通过自动化编排将分布式实例“原子化”,大幅简化跨节点管理复杂度;创新“静默实例”技术实现秒级资源激活,灵活应对潮汐流量;依托高性能流量调度与“班车调度”算法,极致压榨集群性能。

百度高级架构师刘伟分享了百度百舸基于万卡级生产系统实战经验,面向DeepSeek V3.2在推理引擎层面做的深度优化工作:通过轻量级CP让长文本推理的TTFT近乎线性降低,更创新研发ESS系统破解长文本推理的显存墙困境。

面对DeepSeek V3等MoE模型部署中FFN计算密度不足、GPU利用率低的痛点,百度高级工程师刘国维带来了百度百舸在DeepSeek V3系列模型上的AE分离框架实战,展示了在复杂并行与分离架构下,百度百舸如何在性能、稳定性与运维复杂度之间取得工程平衡。

SGLang 社区:推理框架的边界正在被不断拓展

来自SGLang 社区的 5 位开发者分享 了4 个业内最新进展,展现了 SGLang 社区在行业最前沿的动态。

SGLang 核心开发者张懿带来了SGLang在Linear Model优化与Diffusion支持上的最新进展。

随着长序列推理场景等的普及,传统KV Cache管理方式面临挑战。SGLang 在内存管理、投机推理适配等方面进行了大量工程优化,使推理框架能够更好地适配新一代模型结构。

在此基础上,面向DeepSeek等主流模型所指向的统一模型技术迭代路线,SGLang也在尝试从语言模型走向统一生成引擎。11月上线的SGLang Diffusion,便对外释放了一个强烈信号,即SGLang的目标并不是一个LLM引擎,而是统一推理执行层。

来自SGLang Diffusionteam的范舒翼、陈茜,系统介绍了面向图像与视频生成的高性能推理引擎 SGLang Diffusion。在图像与视频生成场景中,SGLang Diffusion通过Pipeline组合、并行策略与Kernel复用,将Diffusion推理性能整体拉升到Diffusers的2–6倍区间,为未来DeepSeek等“理解+生成”统一模型的问世,预留了系统优化空间。

在推理加速方向,SGLang开发者李升桂带来了SpecForge项目,解决了投机推理在真实系统中落地难、稳定性差的问题,让这一理论上成熟的方法,真正具备工程可用性。

同时,来自SGLang RL Team成员李冀,也展示了SGLang在强化学习场景下的最新进展,进一步拓展了推理框架的适用边界。

随着大模型发展重心从训练范式加速转向推理范式,Token消耗需求呈现出远超以往的增长曲线。百度将持续联合开源社区,打造行业领先的AI Infra,不断逼近推理系统的上限,持续满足行业对Token消耗年增百倍的诉求。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2025/12/18 13:15:36

Kotaemon支持Kubeflow吗?MLOps流程整合潜力

Kotaemon 与 Kubeflow 的 MLOps 整合潜力:构建可信赖的 RAG 生产流水线 在企业 AI 落地的深水区,一个常见的困境是:数据科学家能在笔记本上跑通一个惊艳的 RAG 问答原型,但当它进入生产环境时却频频“翻车”——答案不一致、响应…

作者头像 李华
网站建设 2025/12/18 13:14:54

Kotaemon支持gRPC通信吗?高性能微服务集成

Kotaemon 支持 gRPC 通信吗?高性能微服务集成 在构建企业级智能对话系统时,一个常见的挑战是:如何让复杂的 AI 组件之间高效协作,同时又能灵活部署、独立扩展?传统的 REST/JSON 接口虽然通用,但在高并发场景…

作者头像 李华
网站建设 2025/12/18 13:13:40

如何以及为什么使用 LLM 进行基于块的信息检索

原文:towardsdatascience.com/how-and-why-to-use-llms-for-chunk-based-information-retrieval-5242f0133b55?sourcecollection_archive---------4-----------------------#2024-10-28 https://medium.com/peronc79?sourcepost_page---byline--5242f0133b55-----…

作者头像 李华
网站建设 2025/12/18 13:13:36

人工智能可能正在加剧科学和技术领域的可重复性危机

原文:towardsdatascience.com/how-artificial-intelligence-might-be-worsening-the-reproducibility-crisis-in-science-and-technology-47134f639f24 人工智能已经成为科学研究中的一个重要工具,但人们越来越担心这些强大工具的误用正在导致科学及其技…

作者头像 李华
网站建设 2025/12/18 13:12:19

Kotaemon保险理赔咨询:条款解释与流程指导

Kotaemon保险理赔咨询:条款解释与流程指导 在保险行业,一个客户打来电话问:“我摔骨折了,意外险能赔吗?” 客服人员翻手册、查系统、核条款,花了几分钟才确认属于赔付范围——而这还只是第一步。接下来要告…

作者头像 李华
网站建设 2025/12/24 18:50:55

红色警戒2丨中文界面丨多Mod支持丨跨平台兼容丨免费开源

红色警戒2 | 重聚未来是一款专为中国玩家打造的红色警戒2第三方客户端,版本号为重聚未来 v1.5.2.99。客户端支持尤里的复仇、原版红警2以及共荣时代等多种热门Mod,全面提升游戏体验,带来焕然一新的视觉和操作感受。 该客户端具备极强的兼容性…

作者头像 李华