news 2026/5/14 0:44:57

大模型记忆解法:短期算力突围,长期系统工程,2026年混合架构才是王道!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
大模型记忆解法:短期算力突围,长期系统工程,2026年混合架构才是王道!

大语言模型本质上是"无状态的函数"——每一次推理都是一次独立的计算。 让模型"有记忆",需要在单次对话内跨对话之间同时动手。

00

一张图读懂整体格局

可以借用计算机"存储层级"的思维:越靠近 CPU 的越快但越小,越远离的越大但越慢。大模型的记忆系统完全对应这种金字塔。

FIG · 00 — MEMORY HIERARCHY

短期 VS 长期 · 类比计算机存储层级

核心洞察:短期记忆处理"当下",长期记忆处理"历史与世界知识"。两者并非替代关系,而是协同——长期记忆负责"知道什么",短期记忆负责"此刻在想什么"。

01

短期记忆 —算力侧的战斗

短期记忆的瓶颈是算力与显存:Transformer 的自注意力复杂度是 O(n²),每多一个 token 都在放大代价。所有解法都在回答同一个问题——如何让模型用更少资源看到更多 token。

CONCEPT短期记忆 = ?

模型在"单次推理"内能访问的全部信息

本质上是 Transformer 的注意力输入。一旦请求结束,这段记忆就消失了——除非你再传一遍。

承载形式有三层:当前 token 的激活值(最易失)→KV Cache(生成时复用)→Context Window 中的原始 token(本轮可回看)。

CONSTRAINT核心约束

两堵墙:O(n²) 计算 + KV Cache 显存

注意力计算与序列长度呈平方增长。100K token 的上下文,相当于做一张 100K×100K 的注意力矩阵。

KV Cache则与长度呈线性增长,但在多头、多层下绝对值巨大——一个 70B 模型、128K 上下文的 KV Cache 可占用几十 GB 显存。

FIG · 01A — TRANSFORMER 的短期记忆流

CONTEXT WINDOW · KV CACHE · 自回归生成

六种解法 · 把注意力变便宜

01 / 攻 O(N²) 高效注意力 Efficient Attention 用 Sliding Window(Mistral)、Sparse Attention(Longformer)、Linear Attention等,把平方复杂度降到近线性。FlashAttention 在硬件层把 I/O 降一个数量级。02 / 压 KV CACHE 共享 / 压缩键值 GQA · MQA · MLA GQA/MQA让多头共享 K/V(Llama 3、Mistral 的标配)。MLA(DeepSeek)用低秩投影把 Cache 再砍一半。直接效果:同样显存能装下更长上下文。
03 / 骗位置 外推位置编码 RoPE · ALiBi · YaRN 训练时只见过 8K,推理时要处理 128K?靠 RoPE 缩放、YaRN、ALiBi让位置信号线性外推,把短上下文模型拉长,不用重训。04 / 舍弃与摘要 上下文压缩 Context Compression 当历史超过窗口:驱逐策略(H₂O、StreamingLLM 保留 attention sink + recent)、LLM 自摘要、token 蒸馏(LLMLingua 压到 1/10)。本质都是有损压缩。
05 / 切块并行 长上下文训练 Ring / Sequence Parallel 训百万级上下文要把序列切到多卡:Ring Attention、Sequence Parallelism让显存上限从单卡升级为整个集群。06 / 状态空间替代 Mamba / SSM 类 Recurrent State 跳出 Transformer:用状态空间模型把历史压进一个固定大小的隐状态。推理 O(n) 且无 KV Cache——代价是精确回看能力变弱。

本质判断 · SHORT-TERM

短期记忆的解法全部围绕一个不等式展开——「想看到的 token 数vsGPU 能承受的计算与显存」。过去两年的所有进展(FlashAttention、MLA、Mamba、百万上下文),都是在不断把这个不等式往"看得更多"那一侧推。

02

长期记忆 —系统侧的工程

长期记忆的瓶颈不在算力,而在**“什么时候记、记成什么格式、在哪里存、怎么把它找回来”**。它本质上是 LLM 之外的一整套信息检索 + 存储系统。

CONCEPT长期记忆 = ?

跨越单次推理的持久化知识

分两大类:参数化记忆(压进模型权重里的"世界知识")和非参数化记忆(存在外部库里,用时再拉进来)。

前者快但死板,后者灵活但依赖检索——几乎所有严肃产品都是两者混合。

TRADE-OFF核心权衡

可更新性 × 可追溯性 × 延迟

参数化记忆:更新要重训或微调(慢、贵、易遗忘旧知识);出了错很难解释。

外部记忆:可以随时增删改查,每条信息都能追回出处;但多一次检索就多一层延迟,检索质量直接决定输出质量。

FIG · 02A — RAG 架构

RETRIEVAL-AUGMENTED GENERATION · 最主流的长期记忆方案

FIG · 02B — AGENT 记忆系统

受 MEMGPT 启发 · 分层记忆 + 自我写入/检索

六种解法 · 让信息回得来

01 / 压进权重 参数化记忆 Pretraining · Fine-tuning 预训练把全网知识压进权重。SFT / LoRA把特定领域或风格继续固化。适合稳定、通用的知识——不适合昨天刚发生的事。02 / 外挂向量库 RAG Retrieval-Augmented Generation 最成熟的工业方案。文档→分块→Embedding→向量库,查询时召回 top-k 塞进上下文。配合 Rerank、Hybrid Search、父子块可大幅提升召回质量。
03 / 分层管理 Agent 记忆系统 MemGPT · Letta 把上下文窗口当内存,外挂向量库当硬盘。LLM 自己决定何时写入长期、何时回读——「LLM 是 OS」的思想。04 / 结构化 知识图谱 GraphRAG · KG 向量检索擅长"相似"但不擅长"多跳推理"。把实体关系抽成图,GraphRAG用子图 + 社区摘要回答全局性问题。补向量之不足。
05 / 增量学习 持续微调 Continual Learning 用 LoRA / QLoRA高效增量适配。关键是对抗灾难性遗忘——EWC、Replay Buffer、Adapter 隔离都是为此而生。06 / 模型编辑 Knowledge Editing ROME · MEMIT 外科手术式改写权重。定位到承载这条知识的几层神经元,直接替换参数。比微调精准,但只适合少量、离散的事实更新。

本质判断 · LONG-TERM

长期记忆没有银弹。参数化记忆适合"稳的、通用的、不变的";RAG适合"多、杂、要引用、常变的";Agent 记忆系统适合"跨会话的个人化经验"。真实系统几乎全是三者拼起来的。

03

同框对照 —一张表讲透差异

做技术选型时,只需在这张表上对齐四个维度:容量、更新成本、访问延迟、可追溯性。

维度短期记忆长期记忆
载体激活值 · KV Cache · Context Window模型权重 · 向量库 · KG · 文件系统
生命周期单次请求内,结束即消失跨对话 · 跨会话 · 跨用户持久
容量128K ~ 2M token(随模型而定)理论无上限(TB ~ PB 级)
访问延迟极低(直接在 GPU 显存里)数十 ms ~ 秒级(检索+召回+读取)
更新成本零——每次重传即可向量库:低 · 权重:高(需训练)
可追溯性高——原始 token 就在上下文里RAG 高(有 source)· 权重低(黑箱)
核心技术FlashAttention · MLA/GQA · RoPE 外推 · 上下文压缩RAG · Fine-tune/LoRA · Agent Memory · KG
典型瓶颈O(n²) 计算 · KV Cache 显存检索召回率 · 知识一致性 · 遗忘
适用场景单轮复杂推理 · 长文档分析 · 代码仓库理解专业问答 · 个人助理 · 企业知识库 · 多轮 Agent

04

合流 —现代系统的混合架构

没有严肃产品只用一种记忆。下图是 2026 年一个典型 Agent 应用的记忆全栈——短期与长期在同一条推理链上分工协作。

FIG · 04 — 混合记忆全栈

最后

对于正在迷茫择业、想转行提升,或是刚入门的程序员、编程小白来说,有一个问题几乎人人都在问:未来10年,什么领域的职业发展潜力最大?

答案只有一个:人工智能(尤其是大模型方向)

当下,人工智能行业正处于爆发式增长期,其中大模型相关岗位更是供不应求,薪资待遇直接拉满——字节跳动作为AI领域的头部玩家,给硕士毕业的优质AI人才(含大模型相关方向)开出的月基础工资高达5万—6万元;即便是非“人才计划”的普通应聘者,月基础工资也能稳定在4万元左右

再看阿里、腾讯两大互联网大厂,非“人才计划”的AI相关岗位应聘者,月基础工资也约有3万元,远超其他行业同资历岗位的薪资水平,对于程序员、小白来说,无疑是绝佳的转型和提升赛道。

如果你还不知道从何开始,我自己整理一套全网最全最细的大模型零基础教程,我也是一路自学走过来的,很清楚小白前期学习的痛楚,你要是没有方向还没有好的资源,根本学不到东西!

下面是我整理的大模型学习资源,希望能帮到你。

👇👇扫码免费领取全部内容👇👇

最后

1、大模型学习路线

2、从0到进阶大模型学习视频教程

从入门到进阶这里都有,跟着老师学习事半功倍。

3、 入门必看大模型学习书籍&文档.pdf(书面上的技术书籍确实太多了,这些是我精选出来的,还有很多不在图里)

4、AI大模型最新行业报告

2026最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

5、面试试题/经验

【大厂 AI 岗位面经分享(107 道)】

【AI 大模型面试真题(102 道)】

【LLMs 面试真题(97 道)】

6、大模型项目实战&配套源码

适用人群

四阶段学习规划(共90天,可落地执行)
第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型

  • 带你了解全球大模型

  • 使用国产大模型服务

  • 搭建 OpenAI 代理

  • 热身:基于阿里云 PAI 部署 Stable Diffusion

  • 在本地计算机运行大模型

  • 大模型的私有化部署

  • 基于 vLLM 部署大模型

  • 案例:如何优雅地在阿里云私有部署开源大模型

  • 部署一套开源 LLM 项目

  • 内容安全

  • 互联网信息服务算法备案

  • 👇👇扫码免费领取全部内容👇👇

3、这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/14 0:43:57

植物大战僵尸95版下载2026最新版及与原本区别介绍

一、游戏版本简介 植物大战僵尸95版是基于官方原版修改优化的经典改版,也是国内玩家知名度最高、流传最广的怀旧改版之一。该版本保留原版全部关卡、场景、背景音乐以及基础玩法,没有大幅度颠覆原作设定,仅对植物属性、僵尸数值、判定机制进…

作者头像 李华
网站建设 2026/5/14 0:41:34

压电定位平台建模与运动控制【附仿真】

✨ 长期致力于压电定位平台、磁滞非线性、反步控制、滑模控制、有限时间控制研究工作,擅长数据搜集与处理、建模仿真、程序编写、仿真设计。 ✅ 专业定制毕设、代码 ✅ 如需沟通交流,点击《获取方式》 (1)Prandtl-Ishlinskii磁滞模…

作者头像 李华
网站建设 2026/5/14 0:39:18

AI编程助手会话管理:自动压缩JSONL上下文解决响应卡顿

1. 项目概述与核心痛点如果你和我一样,长期重度依赖像 Cursor、Aider、Claude Code 这类 AI 编程助手,那你肯定遇到过这个让人抓狂的场景:正和 AI 讨论一个复杂功能,代码越写越多,对话历史越来越长,突然之间…

作者头像 李华
网站建设 2026/5/14 0:35:29

FPRF芯片技术解析:从软件定义射频到LMS7002M实战应用

1. 从FPGA到FPRF:一场可编程革命正在射频领域上演作为一名在电子设计行业摸爬滚打了十几年的工程师,我对“可编程”这三个字有着近乎偏执的喜爱。从早期的CPLD到后来的FPGA,我亲眼见证了可编程逻辑如何将我们从僵化的ASIC设计中解放出来&…

作者头像 李华