news 2026/3/20 17:11:21

大语言模型微调革命:P-Tuning、LoRA、QLoRA三大方法揭秘!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
大语言模型微调革命:P-Tuning、LoRA、QLoRA三大方法揭秘!

微调基础概念

在大语言模型中,微调是一种帮助模型学会新知识的一种方式。如果你的微调数据集包含了特定领域的新信息,模型在训练过程中就会学习这些内容,并将其融入到自己的响应中。事实上,微调确实能够教会模型新的知识与规律。

训练范式与 RAG 对比

典型训练范式为:预训练 + 监督微调 + RLHF(人类反馈强化学习)。微调的优势在于内化知识,无需 RAG 实时检索外部知识库,响应更快。但 RAG vs 微调无绝对优劣——RAG 数据洗得好切的好,切片质量高,检索方式到位时效果优秀;而微调翻车多是因为超参数不适配数据规模,调优参数能显著提升性能。

主流微调方法概览

微调,一般是采用 P-Tuning 和 LoRA,QLoRA 微调这几种主流方式,(全参微调更新全部参数,效果最佳但资源消耗巨大。) .

P-Tuning

P-Tuning v1 版本,在输入层前插入一组可训练的连续向量(称为“软提示”)相当于加了一层 prompt,通过这种方式来提高模型性能

P-Tuning v2 版本,在每一层的前缀位置注入独立的可训练 prompt,每层独立的软提示可以独立学习任务特征,从而更高效的提升模型性能

LoRA 核心原理

lora 的本质就是低秩分解,什么是秩?一个矩阵中线性独立的行或者列,就是秩,可以认为,一个矩阵的秩越大,它包含的信息就越全面,能够描述的空间越大。

大白话就是说,一个 3×3 矩阵的最大秩是 3,当它的秩为 1 时,说明所有行(或列)都可以由一行(或一列)的线性组合得到,信息被极度压缩。

LoRA 并不直接去更新原来的完整权重矩阵,而是在它旁边增加一个“旁路”结构,用两个可训练的小矩阵 A(3×1)和 B(1×3)来表示权重变化。 这样一来,模型只需训练这 6 个参数,而不是原矩阵的 9 个参数,就能实现同样的微调效果,大大降低了计算资源消耗。

旁路矩阵示意图

如图,两个小矩阵可得到一个大矩阵,同样的,一个大矩阵*一个小矩阵,也可以通过矩阵乘法得到一个小矩阵。

通过旁路矩阵进行训练,训练好后的参数+上原本的完整权重。

最终输出 = 原权重计算结果 + LoRA 旁路计算结果h = (W₀ × x) + (B × A × x) / α↑ ↑原模型输出 旁路补丁输出

其中 h 为最终输出,W0 为原始冻结参数,x 为输入,A,B 为两个旁路矩阵,α是缩放系数,控制旁路矩阵输出幅度(让输出数值别太大别太小)

QLoRA 量化优化

QLoRA 就是在原来 LoRA 的基础上,对全参数矩阵进行量化操作,使原始模型变得更小,占用更少资源,用少量精度换取性价比高的结果。

总结:

全参微调:假设原始模型参数量为 100*100,全参微调需更新的参数量就是 100*100 = 10000

LoRA 微调:

  1. 冻结原表格(100×100,不动它)
  2. 加两个小表格(旁路矩阵):
  • A 表:100 行×4 列 = 400 参数

  • B 表:4 行×100 列 = 400 参数

  1. 计算公式:最终输出 = 原表格 + (A × B 的结果),4 就是 LoRA 的"秩"(rank)。

QLoRA 微调:

  1. 把原表格进行量化(float 转 int 的过程),压缩成 4bit 版本(从 10,000 高精度浮点数压成 3,000 个 4bit 整数码)
  • 存储只需原先 1/4 空间,在需要的时候将全参矩阵“解码”回 FP16 计算。
  1. 冻结这个瘦版表格

  2. 再加 LoRA 的 A、B 小表格(同上,800 参数)

LoRA(低秩适应机制)——仅对一小部分额外的“适配器”权重矩阵进行微调(这些权重矩阵以 16 位精度进行存储),省时省力,显著减少训练过程中需要更新的参数数量。

QLoRA(量化 LoRA)——在 LoRA 基础上,先将原始模型权重压缩为 4 位 NF4 量化格式(存储只需原先 1/4 空间),冻结后仅训高精度 LoRA 适配器,这样可以显著降低内存消耗与计算开销。

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习和面试资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

第一阶段:从大模型系统设计入手,讲解大模型的主要方法;

第二阶段:在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段:大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段:大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段:大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段:以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段:以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/20 3:50:56

市场快评 · 今日复盘要点20251225

Q1:今日是否适合低吸? A:今日上涨个股3773家,远大于2500家阈值, 持有龙头即可。Q2:昨日最高标今日表现如何? A:昨日最高标 胜通能源 今日继续涨停。3:今日主线题材及板块…

作者头像 李华
网站建设 2026/3/19 15:43:40

Java毕设项目推荐-基于springboot的学生军训管理系统人员管理 - 考勤追踪 - 成绩管理 - 数据统计【附源码+文档,调试定制服务】

博主介绍:✌️码农一枚 ,专注于大学生项目实战开发、讲解和毕业🚢文撰写修改等。全栈领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java、小程序技术领域和毕业项目实战 ✌️技术范围:&am…

作者头像 李华
网站建设 2026/3/19 17:55:07

智普Open-AutoGLM开源了!为何它能成为国产AutoML赛道的黑马?

第一章:智普Open-AutoGLM开源了!为何它能成为国产AutoML赛道的黑马? 智普AI推出的Open-AutoGLM正式开源,迅速在国产自动化机器学习(AutoML)领域引发关注。该框架融合大语言模型(LLM)…

作者头像 李华
网站建设 2026/3/9 14:33:51

本科/硕士论文降AI率,选对工具真的少走弯路!

一、现在的真实情况:查重过了,论文却被卡 AI 率 这两年,很多同学都会遇到一个很反直觉的情况: 重复率 5%–10%,老师点头 AI 率 40%–70%,直接打回 问题不在你“是不是抄袭”,而在于—— 现在…

作者头像 李华
网站建设 2026/3/14 12:02:26

为什么自己写的论文也会被判“高AI痕迹”?

一、现在的真实情况:查重过了,论文却被卡 AI 率 这两年,很多同学都会遇到一个很反直觉的情况: 重复率 5%–10%,老师点头 AI 率 40%–70%,直接打回 问题不在你“是不是抄袭”,而在于—— 现在…

作者头像 李华