news 2026/2/14 3:38:05

【硬核干货】Unsloth微调Qwen3大模型,小白也能秒变AI大神!附完整代码[特殊字符]

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【硬核干货】Unsloth微调Qwen3大模型,小白也能秒变AI大神!附完整代码[特殊字符]

一、环境准备

1)购买AutoDL云主机(这里之所以选择它,是因为性价比很高,很适合新手做实验),选择3090显卡的即可(如果本地有GPU机器,请用自己的),我购买AutoDL时,选择了PyTorch

2)安装Anaconda(AutoDL上已默认安装miniconda3)

Anacoda官网:https://www.anaconda.com/

根据你自己的系统下载对应版本

安装完成后,打开终端(Linux/macOS)或Anaconda Prompt(Windows),输入以下命令创建一个新环境:

(AutoDL上需要做以下操作)

conda create -n llama_factory python=3.10 conda activate llama_factory

3)安装cuda(AutoDL已安装)

参考: https://help.aliyun.com/zh/egs/user-guide/install-a-gpu-driver-on-a-gpu-accelerated-compute-optimized-linux-instance

4)下载数据集

数据集对于微调来说,是很重要的一环,数据集质量的好坏直接决定了你微调的效果。本次实验我用的是一个关于脑筋急转弯的数据集,地址:

https://modelscope.cn/datasets/helloworld0/Brain_teasers

二、安装Unsloth

1)利用conda创建虚拟环境(如果你没有开启jupyter,则需要做这一步)

conda create -n unsloth_env python=3.10 conda activate unsloth_env 2)安装Unsloth
pip install unsloth

三、下载Qwen3大模型

此次微调我用的是Qwen3-4B的版本,相对来说参数量不大,而且效果比较好。先用pip安装modelscope模块

pip install modelscope 然后创建目录,并下载模型:
mkdir -p /models/ modelscope download --model Qwen/Qwen3-4B --local_dir /models/Qwen3-4B 说明: Qwen3-4B大模型会下载到/models/Qwen3-4B下面

四、微调前的测试

微调之前可以先加载初始模型做推理测试,编写测试脚本befor_train.py,内容如下:

from unsloth import FastLanguageModel model_name = "/models/Qwen3-4B" # 替换为实际模型路径 max_seq_length = 2048 # 最大上下文长度 dtype = None # 自动选择 float16 或 bfloat16 load_in_4bit = True # 启用 4-bit 量化 model, tokenizer = FastLanguageModel.from_pretrained( model_name=model_name, max_seq_length=max_seq_length, dtype=dtype, load_in_4bit=load_in_4bit, ) FastLanguageModel.for_inference(model) inputs = tokenizer( ["Instruction: 你是脑筋急转弯专家,请回答我的问题:什么东西力气再大也不愿意抗?"], return_tensors="pt" ).to("cuda") outputs = model.generate(**inputs, max_new_tokens=256) print(tokenizer.decode(outputs[0], skip_special_tokens=True))

说明:初次加载模型耗时会很久,耐心等待,看其输出内容对比数据集中的答案,是否有差异。

五、开始微调

编写微调的脚本train.py,内容如下:

from unsloth import FastLanguageModel from trl import SFTTrainer from transformers import TrainingArguments from datasets import load_dataset import torch # 加载模型 model_name = "/models/Qwen3-4B" max_seq_length = 2048 dtype = None load_in_4bit = True model, tokenizer = FastLanguageModel.from_pretrained( model_name=model_name, max_seq_length=max_seq_length, dtype=dtype, load_in_4bit=load_in_4bit, ) # 配置 LoRA model = FastLanguageModel.get_peft_model( model, r=32, target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], lora_alpha=64, lora_dropout=0.2, bias="none", use_gradient_checkpointing=True, random_state=3407, ) # 加载和预处理数据集 dataset = load_dataset("json", data_files="/models/datasets/data.json", split="train") train_prompt_style = """下面是一个脑筋急转弯问题,请提供合适的答案,不需要提供思考过程。 ### 指令: 你是一个脑筋急转弯专家,请回答以下问题,不需要提供思考过程。 ### 问题: {} ### 回复: {}""" def formatting_prompts_func(examples, eos_token): inputs = examples["instruction"] outputs = examples["output"] texts = [] for inputs, outputs in zip(inputs, outputs): text = train_prompt_style.format(inputs, outputs) + eos_token # eos token在training的时候必须要加 texts.append(text) return { "text": texts, } dataset = dataset.map( formatting_prompts_func, batched=True, fn_kwargs={'eos_token': tokenizer.eos_token}, # tokenizer为前面加载model是加载的tokenizer ) # 配置训练 trainer = SFTTrainer( model=model, tokenizer=tokenizer, train_dataset=dataset, dataset_text_field="text", max_seq_length=max_seq_length, args=TrainingArguments( per_device_train_batch_size=8, gradient_accumulation_steps=4, warmup_steps=10, max_steps=80, learning_rate=5e-5, fp16=not torch.cuda.is_bf16_supported(), bf16=torch.cuda.is_bf16_supported(), logging_steps=5, optim="adamw_8bit", weight_decay=0.01, lr_scheduler_type="linear", seed=3407, output_dir="outputs", ), ) # 开始训练 trainer.train() ## 保存LoRA适配器 model.save_pretrained("qwen3_lora_finetuned") tokenizer.save_pretrained("qwen3_lora_finetuned") ## 保存新模型 model.save_pretrained_merged("/models/Qwen3-4B-Aminglinux", tokenizer, save_method="merged_16bit")

说明:数据集文件路径为:/models/datasets/data.json。脚本中涉及很多微调参数,如果想要详细的参数介绍,可以在文章末尾留言这里就不再详细介绍了。

微调会比较耗时,主要取决你的硬件配置以及脚本中你设定的max_steps参数,这个数值越大,它训练的时间就越久。微调后的模型路径为:/models/Qwen3-4B-Aminglinux

六、微调后推理测试

编写测试脚本after_train.py,内容如下:

from unsloth import FastLanguageModel max_seq_length = 2048 dtype = None load_in_4bit = False ##如果显存足够,这里设置为False model, tokenizer = FastLanguageModel.from_pretrained( model_name="/models/Qwen3-4B-Aminglinux", max_seq_length=max_seq_length, dtype=dtype, load_in_4bit=load_in_4bit, ) FastLanguageModel.for_inference(model) inputs = tokenizer( ["Instruction: 你是脑筋急转弯专家,请回答我的问题:什么东西力气再大也不愿意抗?"], return_tensors="pt" ).to("cuda") outputs = model.generate(**inputs, max_new_tokens=256) print(tokenizer.decode(outputs[0], skip_special_tokens=True))

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/10 10:48:02

diskinfo下载官网之外的选择:监控PyTorch训练磁盘IO性能

diskinfo下载官网之外的选择:监控PyTorch训练磁盘IO性能 在深度学习模型的训练过程中,GPU算力再强,也架不住数据“喂不进来”。你有没有遇到过这种情况:显卡风扇呼呼转,nvidia-smi 却显示 GPU 利用率长期徘徊在 10%~30…

作者头像 李华
网站建设 2026/2/4 5:09:20

小白勇做hot100

欢迎大佬指点 刚步入算法题也可以在评论区留下痕迹 成为我的第一位"股东",我们一起加油第一次面对算法题时,那种既兴奋又紧张的感觉,像极了翻开单词书第一页就撞见“Abandon”。明明还没开始,却仿佛被命运嘲弄。但这一次&#xff0…

作者头像 李华
网站建设 2026/2/10 9:10:06

Git worktree新建工作树并行开发PyTorch功能

Git Worktree 与 PyTorch-CUDA 容器化并行开发实践 在深度学习项目日益复杂的今天,AI 工程师经常面临这样的困境:一边是紧急的线上 bug 需要修复,另一边是新模型结构正在快速迭代;与此同时,数据加载性能优化也迫在眉睫…

作者头像 李华
网站建设 2026/2/7 1:18:46

校园二手商品交流平台python-vue

目录 已开发项目效果实现截图关于博主开发技术路线相关技术介绍核心代码参考示例结论源码lw获取/同行可拿货,招校园代理 :文章底部获取博主联系方式! 已开发项目效果实现截图 同行可拿货,招校园代理 ,本人源头供货商 校园二手商品交流平台python-vue …

作者头像 李华
网站建设 2026/2/4 8:44:30

Git tag打标签标记PyTorch里程碑版本

Git Tag 标记 PyTorch 里程碑版本:从代码到环境的全链路版本控制 在深度学习项目中,最让人头疼的往往不是模型结构设计或调参技巧,而是“我这边能跑,你那边报错”这类环境不一致问题。明明用的是同一个训练脚本,却因为…

作者头像 李华