news 2026/4/20 19:40:34

当AI开始改写自己的“进化引擎”:从DGM到HyperAgents

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
当AI开始改写自己的“进化引擎”:从DGM到HyperAgents

如果AI能修改自己的任务解法,那它能不能连“自己以后该怎么修改自己”这件事,也一并改掉?

2026年3月,华人学者Jenny Zhang在Meta实习期间,联合Meta AI、UBC、纽约大学等机构,给出了一个肯定的答案。这项工作不是再造一个更能干活的Agent,而是瞄准了更高一层的问题——让AI开始碰自己的“进化引擎”-15。

这背后是一篇题为《Hyperagents》的论文,已被ICLR 2026接收。它指向的问题,值得每一个关注AI演进方向的人认真看一看。

一、DGM的惊艳与局限:代码世界里“左脚踩右脚”

要理解HyperAgents,得先了解它的前身——Darwin Gödel Machine(DGM)。

DGM是一个能自我修改代码的编程智能体。它的工作方式很直接:不断自改代码、自我验证、把成功版本存进archive,再从这些“垫脚石”里继续向前进化-15。实验结果相当亮眼:在SWE-bench上从20.0%拉到50.0%,在Polyglot上从14.2%拉到30.7%-5。

这套机制之所以能跑通,有一个关键前提:DGM的“评估”和“自我修改”本身都是编程任务。写代码更强了,反过来就更会改自己的代码——任务能力和自我改进能力在这个场景里天然“对齐”了-15。

但问题在于:一旦离开编程领域,这个对齐关系就断了。

比如评审论文、设计机器人奖励函数、给IMO级数学解答打分,这些任务做得更好,不等于你就更会修改自己的元机制-15。论文披露,把原始DGM直接搬到非编程领域,测试集性能几乎降为零-33。

换句话说,DGM虽然在代码世界里表现惊艳,但它本质上是在一条人为铺设的轨道上奔跑。驱动改进的“指令生成机制”是手工设计且不可修改的,这反而成了整个系统的天花板-33。

二、HyperAgents:把“元机制”也扔进可修改范围

HyperAgents做的关键一步,是把“执行任务的agent”和“负责改进agent的meta agent”合并进同一个可编辑程序里,作者将之称为hyperagent-15。

以前,系统有一个手工设计的instruction-generation机制,负责根据过往表现决定下一步怎么改——这一步是写死的,不能被改。HyperAgents把这一部分也纳入了可修改范围。

AI不只是改自己的答案、自己的工具、自己的流程,它开始改“自己怎么提出修改建议”。

论文把这种能力称为metacognitive self-modification——元认知自我修改-15。它同时优化两件事:一是任务解决行为本身,二是生成未来改进方案的机制-1。

所以,HyperAgents做的不是“再加一个Agent”,而是取消了“上层永远不变”这个默认前提。

三、不只编程能行:跨域自我改进跑通了

验证一个框架是否真正通用,不能只看它在擅长的领域表现如何。HyperAgents的关键验证在于:它能否在编程之外的领域也实现自我改进。

来看数据:

  • 论文评审(Paper Review):初始agent测试集得分为0.0,DGM-H提升到0.710;

  • 机器人奖励设计(Robotics Reward Design):从0.060提升到0.372;

  • 编程任务(Polyglot):与原始DGM基本持平,50-task训练子集从0.140提升到0.340。

这些提升不仅出现在训练任务里,也转移到了held-out test tasks-15。

对照组同样说明问题:去掉self-improve,效果明显变弱;去掉open-ended exploration,系统也很难取得有意义进展。原始DGM直接搬到非编程域几乎失效,只有经过人工定制成DGM-custom后才恢复竞争力-18。

但DGM-H不需要任何领域定制,就能达到甚至超过DGM-custom的水平-18。

四、最震撼的一点:它开始自己“长”基础设施了

很多人看到“自我进化”会以为,无非是AI自己改prompt、调工作流、加几个规则。但论文展示了一个更有冲击力的现象:

DGM-H在迭代中会自主长出performance tracking(性能追踪)、persistent memory(持久化记忆)、evaluation analysis(评估分析)、compute-aware planning(计算感知规划)这些基础设施-。

论文中甚至直接给出了自动生成的性能追踪器代码和持久化记忆条目:系统开始记录跨代指标、总结哪些代际策略有效、诊断过度修正、制定下一轮改进计划-18。

一个记忆条目的例子写道:“某一代评审准确率更高,但过于严苛;另一代平衡更好;下一轮要融合两者优点。”-33

这不是简单的“日志记录”——系统开始把改进看成一个长期经营过程,而不是一次次孤立的补丁。没有持久化记忆,agent往往只会反复“重新发明轮子”;有了它,过去几代的有效经验才第一次能真正沉淀为下一轮改进的起点。

五、跨域迁移:不只是任务经验,而是“如何变好”的能力

最让人兴奋的实验结果,可能来自迁移测试。

作者把在论文评审和机器人任务中演化出来的hyperagents,转移到从未接触过的奥林匹克数学评分(Olympiad-level math grading)任务。这些转移体自身初始得分仍接近0,但它们作为“生成更优agent的meta agent”,在50轮内能把最好生成体推到0.630——imp@50从0拉到0.630。

相比之下,来自DGM-custom的转移体几乎没有这种能力-4。

迁移过去的,不只是任务经验,而是“如何持续变好”的能力。

而且这些元级改进可以在多次运行中持续累积:从迁移hyperagent启动的新一轮DGM-H,比从头启动能达到更高的最终性能-18。

六、这是AGI宣言吗?还不是,但旧规则确实在松动

当然,这篇论文没有证明“无限自我进化AI”已经降临。作者自己也写得很清楚:实验都在沙箱、资源限制和人工监督下完成;外层循环还有不少部分没有开放给系统自改,比如任务分布、parent selection、evaluation protocol等-4。

但风险预警已经出现。一旦AI开始改自己的改进机制,安全讨论就变得重要起来。随着系统越来越能开放式地修改自己,它的演化速度可能超过人类审计和理解的速度-4。

HyperAgents代表了一种新的路线。它可能改写Agent竞争的规则:

  • 未来比的不只是谁会调模型、谁会写workflow、谁能做更强单点工具,而是谁能把“改进能力”本身产品化、系统化、可迁移化;

  • 真正的壁垒,可能不再只是参数、算力和数据,而是有没有一套能跨任务累积经验、跨运行持续变好的自我改进系统;

  • 开发者的角色也在变化——不再只是写功能的人,而更像是在设计AI可以继续自我设计的边界条件。

最重要的一点,它改写了AI行业过去默认的一条规则:系统可以变强,但变强的方法由人来定义。现在,这条规则开始松动了。

作者简介

Jenny Zhang,现为英属哥伦比亚大学人工智能博士生,师从Jeff Clune,同时也是Vector Institute研究生,曾在Meta担任Research Scientist Intern。她本科毕业于帝国理工学院,研究方向聚焦开放式进化、强化学习与自我改进AI。她的长期目标,是构建能够自主提出新任务、持续自我提升、不断演化复杂能力的AI系统-49。

参考链接:

  • 论文:https://arxiv.org/abs/2603.19461

  • 开源代码:https://github.com/facebookresearch/Hyperagents

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/20 19:38:24

给STM32F103点颜色瞧瞧:用Keil5软件仿真调试你的第一个ARM汇编程序

从零玩转STM32F103:Keil5软件仿真下的ARM汇编实战指南 第一次看到单片机寄存器在眼前跳动是什么感觉?作为从C语言转向底层开发的必经之路,ARM汇编就像打开芯片内部世界的钥匙。本文将带你用Keil5的软件仿真功能,无需硬件开发板就能…

作者头像 李华
网站建设 2026/4/20 19:36:34

拆解ORB-SLAM2的匈牙利命名法:从变量名看懂多线程与数据流设计

ORB-SLAM2源码深度解析:匈牙利命名法与多线程架构设计精要 1. 匈牙利命名法的工程价值 在大型C视觉SLAM系统中,变量命名规范直接关系到代码的可维护性。ORB-SLAM2采用的匈牙利命名法(如mp、msp、mvp等前缀)不仅是一种编码风格&a…

作者头像 李华
网站建设 2026/4/20 19:33:28

告别U盘!用Hyper-V自带功能搞定Windows 10与CentOS 7虚拟机文件互传

告别U盘!用Hyper-V自带功能搞定Windows 10与CentOS 7虚拟机文件互传 在虚拟化技术日益普及的今天,Hyper-V作为Windows平台的原生虚拟化解决方案,其功能远比大多数用户想象的更强大。许多开发者习惯使用第三方工具如Xftp进行主机与虚拟机间的文…

作者头像 李华