从后端到 RAG 再到 Agent:一份可执行的大模型应用开发学习路线
最近看到一份别人整理的大模型应用开发学习路线,主线很清楚:先补后端基础,再学 RAG 和 Agent,微调与推理优化作为加分项。我把这份路线重新整理了一遍,补上了更适合自学执行的内容,包括每个阶段应该学什么、做到什么、产出什么,以及一个能真正落地的 12 周时间表。
这篇文章的目标不是帮你“收藏更多资料”,而是帮你把路线变成行动。
这条路线适合谁
这份路线更适合下面这类同学:
- 已经有一点编程基础,想转向大模型应用开发
- 想做的是 LLM 应用、Agent、RAG 相关岗位,而不是纯算法研究
- 希望先做出项目,再逐步补模型原理、微调和推理优化
如果你的目标是大模型应用开发岗,那么真正的主线通常不是“先啃微调和 CUDA”,而是:
后端基础 -> 模型 API 调用 -> LangChain / LangGraph -> RAG -> Agent -> 评估与协议
微调和推理优化可以学,但更适合作为加分项,而不是最先投入大量时间的主线。
为什么我建议按这个顺序学
大模型应用开发的核心不是“知道多少模型名词”,而是你能不能把模型能力接进一个真实系统里。
一个真实的大模型应用,通常离不开这些东西:
- 一个能稳定提供服务的后端接口
- 一套清晰的 Prompt、工具调用和结构化输出逻辑
- 一个能解决知识问答问题的 RAG 链路
- 一个能处理复杂任务的 Agent 或工作流
- 一套最基本的评估与复盘方法
所以学习顺序应该围绕“做系统”来排,而不是围绕“资料热度”来排。
一张图看完整主线
| 阶段 | 建议时长 | 核心目标 | 最低产出 |
|---|---|---|---|
| 准备阶段 | 2 到 3 天 | 配好环境、模型 API、Git 仓库 | 一个最小模型调用脚本 |
| Python 后端 | 2 周 | 补并发、HTTP、FastAPI、流式接口 | 一个可运行的 API 服务 |
| LLM 应用基础 | 1 周 | 理解 Prompt、结构化输出、Tool Calling | 一个命令行助手 |
| LangChain / LangGraph | 2 周 | 建立应用抽象与工作流思维 | 一个工具调用工作流 |
| RAG | 3 周 | 做出可用的知识库问答应用 | 一个带引用和评估的 RAG 项目 |
| Agent / 协议 | 2 周 | 学会设计 Agent、理解 MCP/A2A | 一个研究或报告助手 |
| 加分项 | 1 周 | 微调或推理优化二选一 | 一份实践记录 |
| 面试整理 | 1 周 | 项目包装、问答准备、查漏补缺 | 简历项目 + 问答清单 |
第一阶段:先把后端基础补起来
很多人一提大模型应用开发,就先去看 LangChain、LangGraph、MCP、Multi-Agent。其实如果后端基础不稳,后面很快就会卡住。
这一阶段最重要的不是“语法学全”,而是搞懂下面几件事:
- 线程、多进程、协程分别适合什么场景
- HTTP 请求、状态码、超时、重试、流式返回是什么
- FastAPI 怎么写路由、参数校验、异步接口、文件上传和基础测试
- SSE 和 WebSocket 分别适合什么场景
这一阶段建议做到什么程度
- 能独立写一个 FastAPI 服务
- 能提供普通接口和流式接口
- 能处理日志、异常、超时和参数校验
- 能向别人解释
async/await为什么在大模型接口里很常见
最低项目建议
做一个最小聊天服务,至少包含这几个接口:
/health/chat/chat/stream/upload
你不需要把它做得很复杂,但一定要让它“像一个能用的服务”。
可参考资料
- FastAPI 官方教程
- Python 并发编程实战视频
第二阶段:先理解模型接口本身,再上框架
在学框架之前,我非常建议先手写几次模型 API 调用。原因很简单:如果你一开始就把所有逻辑交给框架,后面遇到问题时你很难判断到底是模型问题、Prompt 问题,还是框架封装的问题。
这一阶段建议重点理解:
- Prompt 的基本设计方式
- system prompt、few-shot、结构化输出
- Tool Calling 和函数调用
- Embedding、向量化、相似度这些基础概念
- token 成本、速率限制、上下文窗口
最低项目建议
做一个纯 Python 命令行助手,支持:
- 普通对话
- JSON 结构化输出
- 一次简单工具调用
做到这一步,你对“模型能力如何被程序使用”就会有很直观的理解。
第三阶段:LangChain 和 LangGraph 怎么学
这一块是很多人真正开始接触“大模型应用开发框架”的地方。
我的建议很明确:
- LangChain 用来建立组件抽象
- LangGraph 用来建立工作流和状态编排能力
很多人会问:这两个是不是二选一?
我的理解不是。更准确地说,LangChain 更像是“积木和接口层抽象”,LangGraph 更像是“把复杂流程真正组织起来的骨架”。
LangChain 重点看什么
- PromptTemplate
- Messages
- Model 封装
- Tools
- Retrievers
- Output Parsers
- 基础 Agent
LangGraph 重点看什么
- StateGraph
- 节点与边
- 条件路由
- 持久化
- 记忆管理
- human-in-the-loop
- 可恢复执行
最低项目建议
做一个带工具调用的工作流助手:
- 至少接两个工具
- 至少有一个条件分支
- 能记录每一步的执行状态
可参考资料
- LangChain 官方文档
- LangGraph 官方文档
- LangChain 入门视频
- LangGraph 入门视频
第四阶段:RAG 是大模型应用开发最值得下功夫的主线
如果你目标是做大模型应用开发,那么 RAG 基本是绕不过去的重点。
因为很多真实业务场景的核心问题,并不是“模型会不会说”,而是:
- 它能不能结合我的私有数据回答问题
- 它能不能给出引用来源
- 它的回答到底靠不靠谱
一个完整的 RAG 系统,至少包含这些环节:
- 文档清洗
- 切块
- Embedding
- 向量检索
- 重排
- 生成
- 引用来源
- 评估
RAG 学习时最容易犯的错
很多人一上来就追高级框架,结果切块没搞清楚,召回逻辑没搞清楚,最后只能做一个“看起来像问答,其实效果不可控”的 demo。
我更建议这样学:
- 先做一个最朴素的 RAG 流程
- 再去优化切块、metadata、query rewrite、rerank
- 最后再横向看 RAGFlow、GraphRAG、Agentic RAG 这类高级方向
这一阶段一定要学会的三件事
- 切块为什么会直接影响召回质量
- 检索优化到底在优化什么
- 为什么 RAG 没有评估就等于没有真正完成
最低项目建议
做一个领域知识库助手,要求:
- 支持上传或读取一批文档
- 回答时展示引用来源
- 至少记录几类失败案例
- 写一份最小评估报告
可参考资料
- All-in-RAG
- LlamaIndex 官方文档
- RAG From Scratch 代码仓库
- RAGAS 官方文档
第五阶段:Agent 的重点不是“多”,而是“边界清楚”
现在很多人一学 Agent 就冲着 Multi-Agent 去了,但真实场景里,很多问题其实根本不需要多个 Agent。
我更建议先搞清楚这几个问题:
- 什么场景适合工作流,什么场景适合 Agent
- 什么场景需要模型自主规划,什么场景应该走确定性流程
- 什么时候该加审批节点
- 什么时候需要长期记忆
这一阶段建议重点看什么
- supervisor 和 workflow
- 上下文工程
- 短期记忆和长期记忆
- 工具调用与任务拆解
- 人机协同和审批流
MCP 和 A2A 怎么理解
这两个词现在很热,但不要混着记。
- MCP更偏向于“让 Agent 以统一协议接工具和资源”
- A2A更偏向于“让不同 Agent 之间协作”
前者解决的是 agent-to-tool 的问题,后者更偏 agent-to-agent。
最低项目建议
做一个研究助手或报告生成助手,流程里至少包含:
- 检索资料
- 调用工具
- 人工确认
- 汇总输出
可参考资料
- Hello-Agents
- Dify 官方文档
- AutoGen 官方文档
- MCP 官方介绍
- A2A 官方文档
第六阶段:微调和推理优化是加分项,不是主线
如果你面向的是应用开发岗,那么微调和推理优化通常不该抢走主线太多时间。
微调方向可以学什么
- SFT
- LoRA
- QLoRA
- 数据构造
- 评估与过拟合风险
做法上,完全可以先用一个成熟工具快速跑通流程,例如:
- LlamaFactory 官方仓库
推理优化方向可以了解什么
- vLLM 官方文档
- KV cache
- 吞吐和延迟的取舍
- 在线推理与离线推理的区别
- SGLang 这类推理编排方案
我的建议
如果你还没有完成一个像样的 RAG 项目和一个像样的 Agent 项目,就先不要把大量时间砸在微调和推理优化上。
第七阶段:面试准备一定要围绕项目来整理
很多人学完一堆东西,最后面试还是讲不出来,问题通常不在“没学过”,而在“没有形成自己的项目表达”。
我建议至少准备两个核心项目:
- 一个 RAG 项目
- 一个 Agent 项目
每个项目都要能讲清楚下面几个点:
- 场景是什么
- 为什么这么选型
- 做过哪些优化
- 遇到过什么问题
- 怎么评估效果
- 如果继续迭代,下一步会做什么
面试高频知识点
- 并发模型:线程、进程、协程
- FastAPI、SSE、WebSocket
- Prompt、结构化输出、Tool Calling
- RAG 的切块、检索、重排、评估
- workflow 和 agent 的区别
- MCP、A2A 各解决什么问题
- memory、上下文工程、人机协同
- 微调和 RAG 分别适合什么场景
一个可直接执行的 12 周计划
下面这版默认按每周 10 到 12 小时设计,适合边学边做。如果你能全职投入,可以压缩到 6 到 8 周;如果你是业余学习,可以拉长到 16 周。
| 周次 | 主题 | 主要任务 | 验收标准 |
|---|---|---|---|
| 第 1 周 | 环境与并发基础 | 搭环境、建仓库、连通模型 API、补协程基础 | 能跑通最小模型调用脚本 |
| 第 2 周 | FastAPI 实战 | 写同步接口、异步接口、文件上传、流式输出 | 一个能运行的 FastAPI demo |
| 第 3 周 | LLM API 基础 | 做 Prompt、结构化输出、Tool Calling | 一个命令行助手 |
| 第 4 周 | LangChain 基础 | 理解 prompt/model/tool/retriever 抽象 | 一个 LangChain 小 demo |
| 第 5 周 | LangGraph 工作流 | 做状态图、条件分支、记忆和审批 | 一个可追踪的工作流 |
| 第 6 周 | RAG 基础 | 文档清洗、切块、向量化、检索 | 一个可回答问题的知识库原型 |
| 第 7 周 | RAG 优化 | metadata、rerank、query rewrite、失败案例 | RAG v2 版本 |
| 第 8 周 | RAG 评估 | 造样本、做 RAGAS 或人工评估 | 一份最小评估报告 |
| 第 9 周 | Agent 设计 | 检索、工具调用、上下文工程、审批流 | 一个完成真实任务的 Agent |
| 第 10 周 | 协议与协作 | 理解 MCP、A2A、多智能体边界 | 能清楚讲出协议差异 |
| 第 11 周 | 加分项实践 | LoRA 微调或 vLLM 部署二选一 | 一份实验记录 |
| 第 12 周 | 项目整理与面试 | 写 README、项目说明、常见问答 | 可演示项目和简历描述 |
这条路线里最值得做的 3 个项目
1. 流式问答 API
用 FastAPI 做一个/chat/stream接口,支持流式返回、日志、超时和异常处理。
这个项目看起来简单,但它会逼着你把“模型调用”真正接成“服务能力”。
2. 领域知识库助手
自己找一批文档,完成切块、向量化、检索、引用和评估。
这是最值得写进简历的大模型应用项目之一,因为它几乎覆盖了应用开发岗最常见的能力要求。
3. Agent 工作流助手
选一个具体任务,例如:
- 周报生成
- 文档问答后自动总结
- 资料检索后输出结构化报告
用 LangGraph 把检索、工具调用、确认、输出整理串起来。
学这条路线时最容易踩的坑
最后总结几个我认为最常见的坑。
1. 只看资料,不做代码
大模型领域资料很多,但真正能转化成能力的,永远是你做出来的东西。
2. 一开始就沉迷“高级框架”
如果连模型 API、Prompt、切块和检索都没搞明白,越高级的框架越容易把你带进黑盒。
3. 把多 Agent 当成高级感的来源
很多场景一个工作流就够了。多 Agent 不是目的,解决问题才是目的。
4. 不做评估
没有评估的 RAG,往往只是一个“看起来能答”的 demo。
5. 项目没有失败案例
真正做过项目的人,一定知道哪里会出问题。能讲清失败案例,往往比只讲成功案例更有说服力。
我自己会怎么用这份路线
如果让我按这份路线重新学一遍,我会坚持三条原则:
- 每个阶段都留下一个可运行 demo
- 每周都写一页总结,记录问题和坑
- 每两周做一次复盘,决定是继续深入还是先进入下一阶段
这样做的结果是,到最后你得到的不只是“看过很多资料”,而是一套能拿出来展示、能在面试里讲清楚、也能继续扩展的项目资产。
参考资料
后端与基础
- FastAPI 官方教程
- Python 并发编程实战视频
LangChain / LangGraph
- LangChain 官方文档
- LangGraph 官方文档
- LangChain 入门视频
- LangGraph 入门视频
RAG
- All-in-RAG
- LlamaIndex 官方文档
- RAG From Scratch
- RAGAS 官方文档
Agent / 协议
- Hello-Agents
- Dify 官方文档
- AutoGen 官方文档
- MCP 官方介绍
- A2A 官方文档
加分项
- LlamaFactory 官方仓库
- vLLM 官方文档
结语
如果只用一句话总结这条路线,那就是:
先把大模型做成“能用的系统”,再去追求“更深的模型能力”。
对于大部分想进入大模型应用开发方向的人来说,后端、RAG、Agent、评估,这四块才是最值得投入时间的主线。先把这条主线走通,你再回头补微调、推理优化、模型原理,会顺畅很多。