news 2026/4/13 14:34:36

大模型微调--Dora微调

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
大模型微调--Dora微调

https://arxiv.org/pdf/2402.09353
DoRA: Weight-Decomposed Low-Rank Adaptation



DoRA: Weight-Decomposed Low-Rank Adaptation

DoRA(Weight-Decomposed Low-Rank Adaptation)是一种用于大模型微调的高效参数优化方法,通过分解权重矩阵并结合低秩适配技术,显著减少训练参数量,同时保持模型性能。

核心思想

DoRA将预训练权重矩阵分解为幅度(magnitude)和方向(direction)两部分,并对方向部分应用低秩适配(LoRA)。这种分解方式能够更精细地控制权重更新,避免直接微调全参数带来的计算开销。

数学表达形式为:
W=m⋅V∣∣V∣∣F W = m \cdot \frac{V}{||V||_F}W=m∣∣VFV
其中:

  • WWW是原始权重矩阵
  • mmm是幅度标量
  • VVV是方向矩阵
  • ∣∣V∣∣F||V||_F∣∣VF表示Frobenius范数(矩阵元素的平方和的平方根)

实现方法

权重分解
将原始权重WWW分解为幅度mmm和归一化方向V∣∣V∣∣F\frac{V}{||V||_F}∣∣VFV。幅度表示权重的重要性,方向决定特征变换的性质。

低秩适配
对方向矩阵VVV应用LoRA技术,使用低秩矩阵AAABBB进行更新:
V=V0+BA V = V_0 + BAV=V0+BA
其中V0V_0V0是冻结的初始方向,A∈Rr×kA \in \mathbb{R}^{r×k}ARr×k,B∈Rd×rB \in \mathbb{R}^{d×r}BRd×r是可训练的低秩矩阵(r≪d,kr \ll d,krd,k)。

训练过程
仅训练幅度参数 $ m $ 和低秩矩阵 $ A,B $,冻结原始权重 $ W $。更新公式为:
W′=m′⋅V0+BA∣∣V0+BA∣∣F W' = m' \cdot \frac{V_0 + BA}{||V_0 + BA||_F}W=m∣∣V0+BAFV0+BA

优势特点

  • 参数效率:相比全参数微调,可减少90%以上的训练参数量。
  • 性能保留:在多项NLP任务中达到或超过全微调(full fine-tuning)的效果。
  • 训练稳定:幅度与方向解耦使优化过程更平滑,避免梯度爆炸/消失。
  • 模块化设计:可灵活应用于Transformer的各类权重矩阵(Q/K/V/FFN)。

注意事项

  • 秩(rank)的选择需要平衡参数效率和性能,通常4-32之间效果较好。
  • 初始化策略影响收敛速度,建议对 ( A ) 使用Kaiming初始化,( B ) 初始化为零。
  • 可与其它高效微调方法(Adapter、Prefix-tuning)结合使用。

https://github.com/NVlabs/DoRA/blob/main/commonsense_reasoning/peft/src/peft/tuners/dora.py

self.weight_m_wdecomp=nn.Linear(1,out_features,bias=False)# self.weight_m_wdecomp.weight # shape: out_features, 1self.fan_in_fan_out=fan_in_fan_out self.Wdecompose=Wdecompose# whether to tune only the magnitude component of Wdecompose or notself.dora_simple=dora_simple# whether to use dora simple to save up GPU memoryifself.Wdecompose==False:ifr>0:self.lora_A=nn.Linear(in_features,r,bias=False)self.lora_B=nn.Linear(r,out_features,bias=False)self.scaling=self.lora_alpha/self.r# Freezing the pre-trained weight matrixself.weight.requires_grad=Falseself.reset_parameters()iffan_in_fan_out:self.weight.data=self.weight.data.Tdefreset_parameters(self):nn.Linear.reset_parameters(self)ifhasattr(self,"lora_A"):# initialize A the same way as the default for nn.Linear and B to zeronn.init.kaiming_uniform_(self.lora_A.weight,a=math.sqrt(5))nn.init.zeros_(self.lora_B.weight)deftrain(self,mode:bool=True):nn.Linear.train(self,mode)ifself.Wdecompose==False:self.lora_A.train(mode)self.lora_B.train(mode)self.weight_m_wdecomp.train(mode)ifnotmodeandself.merge_weightsandnotself.merged:# Merge the weights and mark itifself.Wdecompose:norm_scale=(self.weight_m_wdecomp.weight/(torch.linalg.norm(self.weight,dim=1)).unsqueeze(1))weight=norm_scale*self.weight self.weight.data.copy_(weight.detach())else:ifself.r>0:new_weight_v=self.weight+transpose(self.lora_B.weight @ self.lora_A.weight,fan_in_fan_out=self.fan_in_fan_out)*self.scaling weight=(self.weight_m_wdecomp.weight/(torch.linalg.norm(new_weight_v,dim=1)).unsqueeze(1))*new_weight_v self.weight.data.copy_(weight.detach())self.merged=Trueelifself.merge_weightsandself.merged:raiseNotImplementedError

adapters中的配置

config=DoRAConfig()model.add_adapter("dora_adapter",config=config)
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/11 23:41:56

Mysql 8.0+ 的递归查询WITH RECURSIVE

MySQL with Recursive是一种基于递归思想的MySQL查询方式,可以实现对数据的递归查询和处理,返回符合条件的数据,在MySQL 8.0版本中,该功能被正式引入。这种递归查询方式用于单表自关联,可以应用在很多场景下&#xff0…

作者头像 李华
网站建设 2026/4/10 21:44:59

C++ 结构体(struct)【1】

C/C 数组允许定义可存储相同类型数据项的变量,但是结构是 C 中另一种用户自定义的可用的数据类型,它允许您存储不同类型的数据项。结构用于表示一条记录,假设您想要跟踪图书馆中书本的动态,您可能需要跟踪每本书的下列属性&#x…

作者头像 李华
网站建设 2026/4/11 9:53:05

gpt-oss-20b在低资源环境下的性能调优技巧

gpt-oss-20b在低资源环境下的性能调优技巧 在大模型如GPT-4等闭源系统主导云端AI服务的当下,一个现实问题日益凸显:普通开发者、中小企业甚至科研团队难以负担高昂的算力成本和数据隐私风险。尽管这些顶级模型能力强大,但它们往往依赖A100级别…

作者头像 李华
网站建设 2026/4/9 22:32:50

记力扣557.反转字符串中的单词 练习理解

给定一个字符串 s ,你需要反转字符串中每个单词的字符顺序,同时仍保留空格和单词的初始顺序。示例 1:输入:s "Lets take LeetCode contest" 输出:"steL ekat edoCteeL tsetnoc"示例 2:输入&#…

作者头像 李华
网站建设 2026/4/9 6:35:34

将Seed-Coder-8B-Base嵌入VS Code插件的完整开发流程

将Seed-Coder-8B-Base嵌入VS Code插件的完整开发流程 在现代软件开发中,一个常见的矛盾逐渐浮现:我们手握强大的大语言模型,却不得不将代码片段上传到云端才能获得智能补全建议。这对金融、军工或任何重视源码安全的企业来说几乎是不可接受的…

作者头像 李华
网站建设 2026/4/12 21:09:33

提升文生图效率:利用VSCode插件集成FLUX.1-dev开发环境

提升文生图效率:利用VSCode插件集成FLUX.1-dev开发环境 在数字内容创作的前沿战场上,设计师与开发者正面临一个共同挑战:如何让创意从“想到”到“看见”的路径更短、更直观、更可控?传统的文本生成图像工作流往往割裂——写提示词…

作者头像 李华