news 2026/1/23 8:23:39

提升超长上下文本推理吞吐,百度百舸 ESS 技术报告新鲜奉上

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
提升超长上下文本推理吞吐,百度百舸 ESS 技术报告新鲜奉上

【问题】长文本推理被「显存墙」卡住 在 32K 至 128K 超长上下文场景中,DeepSeek-V3.2-Exp 的 Decode 阶段需维护一个随序列长度线性增长的 Latent Cache。该 Cache 在 128K 下可占用数十 GB GPU 显存,迅速耗尽资源。
结果:
- Batch Size 无法扩大
- GPU 算力大量闲置
- 吞吐上不去,成本下不来

【策略】ESS 以「卸载 + 预取」 为核心:
- 将 Latent Cache 主体卸载到 CPU 内存
- 仅在 GPU 动态保留小而精的热点子集
- 在每步 Decode 前主动预取所需数据回 GPU
完全无损精度,打破 Batch Size 对 GPU 显存的依赖。

【方案】三层协同实现高效「卸载 + 预取」:
1. 高带宽传输,让数据「搬得快」🚀
挑战:Latent Cache 仅 656 字节、访问离散,传统拷贝带宽 <1 GB/s
方案:
- 基于 UVA,GPU 直访 CPU pinned memory
- 自研 FlashTrans 算子,聚合小请求、消除调度开销
效果:H2D/D2H 带宽达 37–43 GB/s 📈

2. 智能预取,让数据「搬得准」🎯
挑战:预取不准 → 无效搬运 → 性能反降
方案:
- 利用 Latent Cache 的强时间局部性
- GPU 用 LRU 管理 Sparse Memory Pool
- Prefill 阶段末尾 Top-K 条目预热缓存(LRU-Warmup)
效果:显著降低 Cache Miss

3. 计算通信重叠,让搬运「不挡路」🔄
挑战:Decode 计算量小,难掩传输延迟
方案:
- DA Overlap:用 Attention 前置计算掩盖 Latent Cache 预取延迟
- DBA Overlap:长上下文下沿 Batch 拆 Indexer,扩大重叠窗口
效果:数据搬运隐藏于计算流水线,关键路径无阻塞

【价值】吞吐显著提升 ✨
基于高精度模拟器测试结果,数据如下:
- 32K 上下文:吞吐提升 69.4%
- 128K 上下文:吞吐提升 123%
→ 显著降低长文本推理成本💰

更多详细内容,请阅读 ESS 技术报告全文:https://arxiv.org/abs/2512.10576。


版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/1/14 20:34:52

罗德里格斯旋转公式详解

罗德里格斯旋转公式详解 一、历史渊源 罗德里格斯旋转公式以法国数学家奥利安罗德里格斯的名字命名&#xff0c;他在1840年的一篇论文中首次系统地描述了这一公式。然而&#xff0c;这一公式的历史可以追溯到更早的时期&#xff1a; 1775年&#xff1a;莱昂哈德欧拉发现了描述刚…

作者头像 李华
网站建设 2026/1/20 8:54:33

共建亚太·共同富裕

亚太经合权威项目正式启动 —— 官方说明会在大湾区隆重举行&#xff0c;环球版APP即将面世&#xff08;中国大湾区&#xff09;在全球资本加速流动与亚太区域合作全面深化的时代背景下&#xff0c;亚太经合项目迎来了具有历史意义的重要里程碑。近日&#xff0c;由商务部体系联…

作者头像 李华