news 2026/2/9 4:18:56

deepseek-v3.2-exp: 节前发版之打工人的悲鸣

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
deepseek-v3.2-exp: 节前发版之打工人的悲鸣

节前发版:Deepseek v3.2 exp

加班快乐...

论文原文

推理代码

架构

与Deepseek-V3.1相比,新一般的架构更改仅仅在后续训练中引入了新的稀疏注意力机制DSA。

DSA:deepseek稀疏注意力

主要包括两个部分:一个ligtning indexer(索引器)和一个细粒度的token选择机制。

Lightning indexer

Step 1: 计算索引分数。

计算了 当前询问 Q token

与一个 前序token

的索引分数,决定了Qtoken将会选择哪一个token。

其中我们有:

索引头的数目。

从Q token

中导出。

从前序的

中导出。

作者选择了ReLU来提升吞吐率。即使lightning indexer仅有很少数量的头并且可以在FP8上部署,其计算效率也是非常显著的。

Step 2: 选择前k个索引分数最高的

, 计算注意力输出。

给定了索引分数

,我们的细粒度token索引机制将会仅仅取出那些具有前k个索引分数的token。随后,注意力输出

将会在当前Q token

和稀疏化选出的

中进行。

其实是MLA中低秩投影计算出来的向量,用于减少KVCache的存储开销,提高推理效率。

下面是新旧结构的对比。上图为新的结构。下图为曾经的旧结构。

img

img

在MLA下实例化DSA

为了考虑从v3.1继续训练,需要基于MLA上实例化DSA。在kernel层面,每一个KV项都需要在多个查询之间共享,提升计算效率。因此,我们在MLA的MQA模式上部署了DSA。这样每一个潜在层(latent vector)将会在每个头之间共享(多个头共用一个潜在向量

, 也就是多个头——多个Query, 共用一个KV)。

img

训练

从v3.1-Terminus 后继续训练,上下文长度扩展到128K。

Step 1: 稠密 warm-up 阶段

用于初始化lightning indexer。继续保持稠密注意力机制,其余参数全部冻结,仅剩下lightning indexer进行训练。

为了保持indexer输出与原先的主要注意力分布对齐,对于第t个查询token,我们首先将多个头的主要注意力分数进行相加,然后在序列维度上进行 L1-正则化,生成目标分布

. 基于

, 我们设置一个 KL-散度 loss作为我们训练indexer的优化目标。

作者声称采用了

的学习率训练了1000步。每一步具有128K长度的16个序列,总共2.1B个token。

Step 2: 稀疏训练阶段

在进行稠密训练之后,进入到了细粒度的token选择,并以此来优化整体模型的参数,来获得DSA的稀疏模式。在这一阶段,我们不在选择所有的token,而是通过上文的方式选择通过indexer判断出来的,索引分数最大的K个token:

需要值得注意的是我们将indexer的输入从计算图中分离,也就是分开indexer和DSA的其他部份,分别进行优化。

indexer仍然仅仅根据

进行优化。

其他部分通过模型其他部分的loss进行优化。

稀疏训练采用学习率

,每个query选择2048个KV token。训练15000步,具有480个长度为128K的token,总共是943.7B token数量。

Step 3: 后训练

后训练与先前deepseek-v3的后训练类似,主要有两步:

专家知识蒸馏。

混合RL训练。

专家知识蒸馏

对于每个任务我们都训练了一个专门的针对这个领域知识的模型,这些模型都是从相同的预训练v3.2基座模型的ckpt而来。

针对写作任务和通用问答任务,我们划分了5个领域:数学,竞赛类编程,通用因果逻辑,多智能体编码,多智能体搜索。

对于每个专家,我们都通过大规模强化学习方式进行训练。

并且,我们部署了不同的模型来生成针对思维链(CoT)的训练数据,以及直接回答(非思维链模式)的训练数据。

当专家模型完成后,他们将被用于为最后的ckpt生成领域专用的知识。最终ckpt在各个领域与专家模型的差距将通过后续的强化学习来进行弥补。

混合强化学习

与v3.1相同,仍然采用的是GRPO强化学习方式。

与前面分不同阶段强化学习不同的是,作者将多个阶段的RL学习(因果,智能体,人类对齐训练)混合到了一起。

优势是可以讲多个领域的表现有效进行平衡并且设法克服在多阶段训练中造成的灾难性遗忘问题。

对于因果和智能体任务,我们部署了基于规则的结果奖励,长度惩罚以及语言一致性奖励。

对于生成式任务,我们部署了一个生成式奖励模型,将按照自己的规则进行评估。

reward进行了两方面的权衡:(1) 长度vs准确度。(2)一致性vs准确度。

评估结果

推理开销从原先的

(原先需要计算所有的 token,长度为 L) 变成

(Q token长度不变,但是KV低秩投影token通过lightning indexer选择K个)。对于lightning indexer,其计算复杂度仍然为

,但是因为其具有的头数量比原先的MLA头数量少,因此常数因子的减少也显著提升了其计算效率。

img

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/5 16:39:06

无锡黑锋 HF3616 40V热插拔、45V耐压、带故障指示的SOT23-6保护开关技术解析

一、芯片核心定位HF3616 是一款采用 SOT23-6 标准封装 并集成 故障状态指示 功能的 高压前端保护开关IC 其核心价值在于 45V的输入瞬态耐压、40V的热插拔耐受能力、通过外部电阻可编程的过流保护(100mA-2.0A) 以及 开漏输出的FAULT状态引脚 专为智能手机…

作者头像 李华
网站建设 2026/2/7 9:00:40

无锡黑锋 HF3605 35V热插拔、45V耐压、超微型固定限流保护开关技术解析

一、芯片核心定位HF3605 是一款采用 DFN 1x1-4 超微型封装、集成固定阈值保护功能的 高压前端保护开关IC 其核心价值在于 高达45V的输入瞬态耐压、35V的热插拔耐受能力、1.3A的固定过流保护 以及 极致的空间利用率 专为对PCB面积有极致要求的超紧凑便携设备(如超薄手…

作者头像 李华
网站建设 2026/2/5 4:12:12

行业视角下的数据库监控演进:主动预防能力何以成为刚需

凌晨三点的告警电话刺耳地响起,屏幕上一片飘红的性能指标让DBA(数据库管理员)瞬间清醒,又一个不眠之夜在“救火”中开始了——这种场景曾是DBA工作的日常。深夜的“救火”场景,本质是传统被动响应运维模式的真实写照。…

作者头像 李华
网站建设 2026/2/4 19:59:34

​当年靠这个ASP.NET电子书城系统,我的毕业设计直接拿优!(附核心源码)​

谁懂啊!当年做毕业设计时,选了个 “电子书城系统”,没想到不仅完美解决了传统购书的痛点,还靠扎实的技术实现拿了优秀!今天把这份压箱底的开发笔记分享出来,包含技术选型、核心模块实现、踩坑实录,适合.NET 初学者练手,老程序员也能追忆当年的开发情怀~ 一、项目背景…

作者头像 李华
网站建设 2026/2/6 0:07:40

极坐标波束形成数据底跟踪算法详解

极坐标波束形成数据底跟踪算法详解 一、基本概念 1.1 底跟踪的定义 底跟踪(Bottom Tracking)是通过声学回波信号检测和跟踪海底位置的技术,主要用于: 测量船舶相对于海底的速度确定水深辅助水下导航定位补偿多普勒计程仪测量 …

作者头像 李华