随着大语言模型(LLM)驱动的多智能体系统快速发展,越来越多的系统被用于软件工程、科学分析、网页自动化、组织协作和社会模拟等任务。
但一个核心问题始终没有被系统回答:为什么有些智能体架构可以支持长链条、多步骤任务,而另一些系统在规模扩大后会失稳、低效,甚至失去协调能力?
这篇综述试图回答的,正是大规模智能体系统为何能扩展、为何会失稳,以及未来该如何设计更可扩展的系统结构。
本文作者为 Xinyuan Song、Qingsong Wen、Shirui Pan 和 Liang Zhao,分别来自美国埃默里大学(Emory University)、英国牛津大学(University of Oxford)和澳大利亚格里菲斯大学(Griffith University)。
快速增长推动研究关注系统级问题
近年来,agent marketplace 和 agent system 都在快速扩张。
一方面,智能体市场中的可用 agent 数量和类别不断增长;另一方面,真实部署的 agent system 也从少量角色协作,逐步走向包含数十个甚至数百个 agent 的复杂结构。
这意味着,大规模智能体系统已经不再只是实验室中的小规模演示,而正在进入更开放、更持续、更复杂的真实运行环境。
〓 图1. 2025年智能体市场与智能体系统增长趋势
市场中的智能体数量采用对数坐标显示,市场类别数和每个系统中的智能体数采用单独坐标轴显示,阴影区域表示估计范围。
数据来源:Internet Archive(Wayback Machine)存档网页快照,包括 OpenAI GPTs、AWS Marketplace 和 Agent.ai。
图 1 展示了这一趋势:无论是 marketplace 中的 agent 数量,还是 system 中每个任务链所涉及的 agent 数,都在明显增长。
也正因为如此,研究者不能再只关注单个 agent 的能力,而必须开始回答一个更系统的问题:当 agent 数量、类型和交互复杂度同时上升时,系统层面的行为究竟由什么决定?这也是这篇综述提出 taxonomy 的直接动机。
近日,一篇题为 Complex Networks of AI Agentic Systems: Topology, Memory, and Update Dynamics 的综述系统讨论了大规模智能体网络的结构问题。
文章提出了一套统一的三维分类框架,从拓扑结构、记忆范围和更新行为三个角度刻画多智能体系统,解释了为什么不同 agent 系统在扩展性、稳定性和协作效率上会表现出明显差异。
该工作进一步指出,大规模智能体系统的核心挑战并不只是通信设计,而是不同智能体之间世界模型不一致所带来的协调困难,为未来可扩展 agent system 的设计提供了新的分析视角。
论文地址:
https://www.techrxiv.org/doi/full/10.36227/techrxiv.177127384.46731320/v1
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6390059
三维分类框架
文章最重要的贡献,是提出了一套三维分类框架,用来统一描述大规模智能体网络。
第一维是架构拓扑(topology),即系统是中心化(centralized)还是去中心化(decentralized);
第二维是记忆范围(memory scope),即信息存放在全局记忆(global memory)还是局部记忆(local memory)中;
第三维是更新行为(update behavior),即系统在运行中是静态(static)还是动态(dynamic)的。
三者组合后,一共得到八类典型的大规模智能体网络。
为更直观地展示这套分类框架,作者将现有大规模智能体系统按照“拓扑(topology)—记忆范围(memory scope)—更新行为(update behavior)”三个维度组织成一张层级结构图。
通过这张图可以看到,不同系统虽然都属于多智能体范式,但它们在中心化或去中心化、全局记忆或局部记忆、静态或动态更新上的选择并不相同。
这些结构差异进一步决定了系统在协调效率、扩展性、鲁棒性和长期行为上的不同表现。
〓 图2. 大规模智能体网络的三维分类框架:基于拓扑(topology)、记忆范围(memory scope)与更新行为(update behavior)的层级组织
图 2 可以看作这篇综述的核心。文章强调,真正决定系统表现的,往往不是智能体数量本身,而是这三种机制如何组合。
中心化系统(centralized systems)更容易统一调度和维持一致性(consistency),适合任务流程明确的场景,但规模变大后容易出现中心瓶颈(central bottleneck);
去中心化系统(decentralized systems)更灵活,更适合研究群体涌现(emergence)行为,但也更容易出现局部失调(local miscoordination)和信息漂移(information drift)。
全局记忆(global memory)有利于共享上下文(shared context)和状态对齐(state alignment),局部记忆(local memory)更贴近真实分布式环境(distributed environment),但也更容易带来分歧。
静态系统(static systems)更容易分析和复现,动态系统(dynamic systems)则更适合复杂环境中的长期任务(long-horizon tasks)和自适应协作(adaptive collaboration)。
真正的瓶颈:世界模型不一致,而不只是通信协议
在此基础上,文章还进一步提出了一个很重要的判断:通信协议(communication protocol)虽然重要,但不是大规模智能体网络最深层的瓶颈。
作者指出,更根本的问题是智能体之间世界模型(world model)的不一致。即使消息传输完全正确,不同智能体也可能因为内部知识、偏好和记忆不同,而对同一句话或同一个状态做出不同解释。
换句话说,传输正确,并不等于理解一致。这种不一致会在系统中逐层放大:
在认知层面,会形成信念漂移(belief drift);
在行为层面,会带来合作不稳定;
在任务层面,会造成目标偏移(goal divergence);
在系统层面,则可能形成非平稳动态(non-stationary dynamics),使整个网络难以收敛。
基于这些观察,作者认为未来研究需要更关注几个方向:更明确的一致性模型(consistency model)、更强的共享状态控制(state control)、更成熟的路由与通信调度机制,以及面向开放环境的身份、安全和鲁棒性设计。
文章还指出,现有评估体系远远不够,因为多数基准仍停留在小规模,而未来真实系统可能需要面对上千到上百万智能体!
总体来看,这篇综述的价值不只是总结已有工作,更在于给大规模智能体网络研究提供了一张结构地图。
它提醒我们:未来系统要真正扩展,关键不只是增加智能体数量,而是要解决拓扑、记忆、更新机制和世界模型对齐之间的系统性问题。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以markdown格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
·