news 2025/12/30 11:08:42

【必收藏】从人类记忆到AI革命:解锁大语言模型的“类人情景记忆“新架构

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【必收藏】从人类记忆到AI革命:解锁大语言模型的“类人情景记忆“新架构

这是一篇发表于 2025 年 10 月《Trends in Cognitive Sciences》上的文章。文章的核心在于探讨如何利用认知神经科学(Cognitive Neuroscience)中关于人类“情景记忆”(Episodic Memory, EM)的研究成果,来改进现有的记忆增强型大语言模型(Memory-Augmented LLMs, MA-LLMs)。

AI 的“记忆”瓶颈与人类的启示

在过去几年中,大语言模型(LLM)展现了惊人的语义理解能力,仿佛拥有了博学的“大脑皮层”(语义记忆)。为了解决 LLM 无法记住长周期信息的问题,工业界广泛采用了**检索增强生成(RAG)**或超长上下文窗口技术,给模型外挂了一个“硬盘”。

然而,这篇论文指出,现有的 AI 记忆系统虽然能“存”海量数据,但在“用”数据的方式上,不仅低效,而且极度违反人类的认知直觉 。人类的情景记忆(Episodic Memory)——即我们对过去独特经历的回忆——并非简单的数据库查询。我们在理解世界时,会自动对连续的体验进行切分,只在关键时刻记录或回忆,并且记忆会随着时间动态重组

相比之下,目前的 AI 往往机械地每隔 K 个 Token 检索一次,或者把记忆当作静态的文本块。这篇综述发出了强有力的呼吁:为了让 LLM 真正理解复杂的真实世界,我们需要从计算机工程转向认知仿生,构建具有“类人情景记忆”的 AI。

一、基石:LLM 的记忆架构 vs 人脑记忆系统

为了理解如何改进,作者首先建立了一个清晰的映射框架,将 LLM 的组件与人类记忆系统对应起来 :

  1. **语义记忆 (Semantic Memory) 模型权重 (Weights):**就像人类的大脑皮层通过反复学习积累通用知识一样,LLM 通过预训练将世界知识压缩在神经网络的权重中。这是一种累积的、缓慢变化的知识。
  2. **工作记忆 (Working Memory) 上下文窗口 (Context Window):**人类的工作记忆负责在短时间内维持和操作信息。对于 LLM,这就是它的 Context Window(上下文窗口)。通过自注意力机制(Self-Attention),模型可以在这个窗口内灵活地组合信息。
  3. **情景记忆 (Episodic Memory) 外部存储 (External Memory):**这是本论文的主角。人类通过海马体(Hippocampus)快速记录一次性的经历。对于 MA-LLMs(记忆增强型 LLM),这对应于外部的键值对(Key-Value)数据库或文档库。

技术细节:Transformer 中的记忆原理

为了深入理解这层对应关系,我们需要看一眼 Transformer 的核心计算——自注意力机制。这其实就是一个记忆检索过程。

其核心数学形式可以理解为查询(Query)与键(Key)的匹配,进而提取值(Value):

  • Q (Query):你当前想找什么(比如当前的对话)。
  • K (Key):记忆库里的索引标签。
  • V (Value):实际存储的记忆内容。

作者指出,现有的长上下文模型(Long-context models)实际上是试图强行把所有记忆都塞进“工作记忆”(Context Window)中 。但这非常低效且昂贵。更符合人类直觉的做法是:建立一个独立的、类似海马体的快速存储系统,只在需要时将相关记忆“调入”工作记忆 。

下图展示了这种基于 Transformer 自注意力机制的记忆检索原理,它不仅是工作记忆的基础,也是外部情景记忆的接口。

如图所示,(A) 展示了标准注意力机制如何在窗口内工作;(B) 展示了这套机制如何扩展到长期记忆检索——通过计算当前输入与过去潜在记忆的匹配度来激活相关信息。

二、核心差异:MA-LLMs 哪里“不像”人?(五大关键错位)

这是全篇论文最精华的部分。作者详细剖析了当前主流 MA-LLMs(如 RAG 系统)与人类情景记忆的五个根本性差异。

1. 动态更新 (Dynamic Memory Updating)

  • AI 的做法:典型的“只读不改”或“只增不改”。一旦信息被写入向量数据库,它通常就静态地躺在那里。
  • **人类的做法:**记忆是活的。我们的记忆在存储后会被不断修饰。
  • 重构与遗忘:新的信息会更新旧的记忆,无关的细节会被遗忘。

离线重放 (Replay):就像做梦一样,海马体会重放情景记忆,将其“教”给大脑皮层,从而转化为长期语义知识(Consolidation) 。

启示:AI 需要引入“重放”机制,利用空闲时间优化记忆库,甚至利用情景记忆来微调模型权重。

2. 事件分割 (Event Segmentation)

  • **AI 的做法:**机械切分。大多数 RAG 系统将长文本简单粗暴地按固定长度(例如每 256 个 token)切成块(Chunk)。这导致语义被截断,上下文丢失。
  • **人类的做法:**按“事件”切分。当我们从“走进餐厅”变成“坐下点菜”时,大脑会感知到一个“事件边界”(Event Boundary)。这种边界通常对应着预测误差的飙升(Surprise) 。

启示:AI 应当基于“惊奇度”(Surprise/Prediction Error)来切分记忆块,而不是字数。研究表明,基于事件切分的模型能显著减少检索干扰 。

3. 选择性 (Selective Encoding and Retrieval)

  • **AI 的做法:**全覆盖。为了不漏掉信息,模型往往倾向于把所有东西都存下来,并且每生成一句话都去检索一次。
  • **人类的做法:**极其“吝啬”。

编码选择性:我们主要在事件结束(边界)时进行强烈的记忆编码,而不是每时每刻都在记 。

检索选择性:只有当当前信息不足以预测未来(即出现认知缺口或不确定性高)时,我们才会去调用情景记忆 。如果当前很顺畅,我们根本不会去翻旧账。

启示:引入“门控机制”。只有当模型对下一个词的预测不确定时,才触发检索。这能大幅降低计算成本并减少错误记忆的干扰 。

4. 时间连续性 (Temporal Contiguity)

  • **AI 的做法:**点状检索。检索出的通常是散落在不同时间点的 Top-K 个片段,彼此孤立。

**人类的做法:**时间流。当我们回忆起某个时刻(如“去年生日”),我们不仅通过语义关联回忆,还会自然地顺着时间线想起“接下来发生了什么” 。

  • 启示:记忆检索应当包含时间索引,允许模型在检索到一个片段后,自动预加载该片段随后的内容。

5. 检索竞争 (Competition at Retrieval)

  • **AI 的做法:**并行堆叠。检索出 5 个或 10 个相关文档,全部塞进 Prompt 给模型看。

**人类的做法:**赢家通吃。记忆检索是高度竞争的。通常只有一个最佳匹配的记忆会浮现到意识中,其他的会被抑制 。

  • 启示:过多的检索结果(特别是包含错误信息的)会产生误导。AI 需要更强的过滤机制,只让最相关的那一个记忆进入工作流程。

下图生动地对比了这种差异。

(A) 典型的 MA-LLM:机械切块、静态存储、一次性检索一堆碎片。(B) 人类情景记忆:连续输入被分割成有意义的事件(Event Segmentation),只有在特定时刻(如感到困惑或事件切换时)才进行选择性编码和检索,且记忆会动态更新和重放。

三、评估与测试:如何证明模型拥有了“人类灵魂”?

目前的 AI 评估大多基于简单的问答(QA),比如“权力的游戏第二季有几集?”。这种问题目标明确,答案就在库里。但真实世界并非如此。

新的测试范式:真实世界的模拟

作者提出了一个极具创新性的基准任务设计,旨在模拟真实生活的连续性不确定性

TV Show Summary Task(电视剧剧情摘要任务):

  1. 编码阶段:给模型看大量它没见过的电视剧剧本(一次性阅读)。
  2. 测试阶段:逐句展示剧情摘要。
  3. 核心机制:模型需要自己决定是“继续看下一句摘要”(获取更多信息),还是“接管(Take Over)”并预测接下来的剧情。
  • 如果过早接管:可能因为线索太少检索到错误的剧集(记忆混淆),导致预测错误(扣分)。
  • 如果太晚接管:错失了预测机会(不得分)。
  • 如果根本没看过该剧:模型应该意识到自己没印象,选择保持沉默而不是胡编乱造。

这个任务完美捕捉了真实记忆的挑战:不仅要记对,还要知道“何时回忆”以及“何时闭嘴”。

如图所示,模型在接收剧情摘要流时,必须权衡“等待更多线索”与“主动预测”的风险,这迫使模型学会人类那样的选择性检索策略。

脑神经匹配 (Neural Alignment)

除了行为测试,作者还提议直接看“脑子”。利用**编码模型(Encoding Model)**方法,将 AI 模型的内部激活状态(Embeddings)映射到人类大脑在观看同样视频时的 fMRI(功能性磁共振成像)信号 。如果一个 MA-LLM 的内部状态能更准确地预测海马体和大脑皮层的活动,说明它更接近人类的思维方式。

该图展示了如何使用编码模型对比 AI 与大脑。通过让 AI 和人类“看”同一个故事,计算二者神经活动的相似度,从而量化 AI 的“拟人化”程度。

四、结论与展望

这篇论文不仅仅是对现状的批评,它为 AI 的未来指明了一条**生物启发(Bio-inspired)**的道路。

结论核心:

  1. 效率至上:人类记忆的“怪癖”(如遗忘、选择性检索)并非缺陷,而是为了在复杂、嘈杂的世界中实现计算效率和预测准确性最大化的进化结果。
  2. 双赢局面:将这些机制引入 LLM,不仅能让 AI 更像人(Cognitive Modeling 的胜利),更能直接提升 AI 在长文本处理、复杂推理中的性能(AI Engineering 的胜利) 。

未来展望:

  • 多模态记忆:未来的记忆不应只有文本,还应包含视觉和听觉线索,因为非语言线索(如语气变化)往往是触发事件分割的关键 。
  • 记忆巩固 (Consolidation):真正实现“夜间做梦”般的离线学习,让情景记忆逐渐转化为模型直觉(权重),解决灾难性遗忘问题 。

通过模仿人类大脑处理过去的方式,我们或许终将造出不仅能“检索”过去,更能真正“理解”时间的人工智能。

普通人如何抓住AI大模型的风口?

领取方式在文末

为什么要学习大模型?

目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过30%。

随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:

人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!

最后

只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!

在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

大模型全套学习资料展示

自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。

希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!

01教学内容

  • 从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!

  • 大量真实项目案例:带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

02适学人群

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

vx扫描下方二维码即可

本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!

03入门到进阶学习路线图

大模型学习路线图,整体分为5个大的阶段:

04视频和书籍PDF合集

从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)

05行业报告+白皮书合集

收集70+报告与白皮书,了解行业最新动态!

0690+份面试题/经验

AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)

07 deepseek部署包+技巧大全

由于篇幅有限

只展示部分资料

并且还在持续更新中…

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2025/12/23 5:58:13

【java入门到放弃】算法中队列

1、普通队列 FIFO、全称:First In, First Out、中文意思:先进先出 offer / poll / peek(安全)或 add / remove / element(严格(为null会抛异常)) public static void main(String[] args) {// 用 LinkedLis…

作者头像 李华
网站建设 2025/12/18 17:06:50

大模型基石:神经网络工作原理完全指南,小白也能看懂

本文系统介绍了人工智能领域的基础概念,重点解释了神经网络如何通过将实际问题转化为数学问题来学习。详细阐述了神经网络作为复杂函数的表示方法、参数学习中的最优化问题、梯度下降和反向传播的工作原理,以及不同类型的损失函数。通过天气预测等实例&a…

作者头像 李华
网站建设 2025/12/18 17:05:38

Windows ISO自动化补丁集成工具终极指南

Windows ISO自动化补丁集成工具终极指南 【免费下载链接】Win_ISO_Patching_Scripts Win_ISO_Patching_Scripts 项目地址: https://gitcode.com/gh_mirrors/wi/Win_ISO_Patching_Scripts 还在为每次安装Windows系统后手动下载安装大量补丁而烦恼吗?&#x1f…

作者头像 李华
网站建设 2025/12/20 17:09:55

终极解密:动态网格布局的智能避障算法

当组件在有限空间内碰撞时,谁该让路?这个看似简单的布局谜题,背后隐藏着一套精妙的动态网格布局算法。今天,让我们化身技术侦探,深入探索GridStack引擎如何通过三步解决组件碰撞难题,实现智能空间分配。 【…

作者头像 李华
网站建设 2025/12/24 21:27:35

Vial-QMK键盘固件:从入门到精通的完整实战指南

Vial-QMK键盘固件:从入门到精通的完整实战指南 【免费下载链接】vial-qmk QMK fork with Vial-specific features. 项目地址: https://gitcode.com/gh_mirrors/vi/vial-qmk 想要彻底释放键盘的潜力吗?Vial-QMK键盘固件为你打开了一扇通往无限定制…

作者头像 李华