Meta提出超级智能体Hyperagents:能无限自我迭代的达尔文哥德尔机,AI安全成核心议题(1/2)
能无限自我迭代的“超级智能体”已经到来。
近期,Meta研究团队发表了一篇题为 《HYPERAGENTS》 的论文,迅速引发广泛关注。该论文将LSTM之父 Jürgen Schmidhuber 在二十多年前提出的 哥德尔机 思想,与 达尔文开放算法 相结合,提出了一种能够持续自我迭代的 达尔文哥德尔机。

基于这一架构,智能体不仅能更出色地完成具体任务、持续提升表现,更关键的是,它能够 不断优化“改进自身”的底层逻辑,实现真正的“元学习”。
这便是论文所定义的新一代超级智能体——Hyperagents。
论文进一步指出,未来AI有望通过这种持续的自我迭代,最终突破人类预设的初始算法边界。正因如此,AI安全问题必须被置于核心位置。
这篇论文现已被ICLR 2026接收。


从哥德尔机到达尔文哥德尔机
要理解超级智能体Hyperagents,首先需要了解其理论基础——哥德尔机。
哥德尔机是一种假设性的自我完善型AI。其核心在于从数学上寻求证明:如果存在某种更优的策略,它将通过递归重写自身代码来解决问题。这一设想由Jürgen Schmidhuber于二十多年前首次提出。

在传统机器学习中,AI的“学习方法”是人类预设的硬编码,它只能通过调整内部参数来逼近目标。而哥德尔机打破了这一限制,它将算法框架本身视为可编辑的代码,通过自主重写程序来实现学习能力的自我演进。
然而,哥德尔机面临一个现实难题:它要求在自我演进前,必须从数学上证明该改动能带来净收益(即改进带来的收益超过其计算成本)。在复杂的现实任务中,这种证明几乎无法实现。
针对此问题,Meta团队提出了达尔文哥德尔机。它利用开放式算法,通过在大模型提议的代码改进方案中进行搜索,筛选出能从经验上提升性能的方案。

换言之,DGM利用基础模型生成代码改进提议,并借助开放式算法的最新成果,搜索并构建一个不断增长、多样化且高质量的智能体库。基于此,DGM能创造出多种自我改进策略,例如增加补丁验证步骤、优化文件查看功能、增强编辑工具、生成并筛选多个解决方案以选出最优解,以及在实施新更改时自动记录并分析历史尝试。
实验表明,DGM获得的计算资源越多,其自我提升的效果就越好。
超级智能体Hyperagents
尽管DGM能力强大,但它存在一个关键局限:主要适用于编程任务。这是因为DGM依赖一个核心假设——评估任务与自我修改任务必须“对齐”。

在编程领域,这种对齐是天然的:提升编程能力,就等于提升了修改自身代码的能力。解决外部编程问题的逻辑工具,可以直接用于修改自身底层代码。
然而,在非编程领域(如诗歌创作),即便提升了任务能力,也无法直接转化为修改代码的逻辑水平。在这种缺乏 “自指性” 的任务中,DGM的递归进化链条便会断裂,陷入停滞。
为此,论文提出了超级智能体概念——它们既能修改自己的任务执行行为,也能修改生成未来改进建议的整个过程。这实现了 “元认知自我修改”:不仅学习如何做得更好,还学习如何更有效地进行改进。
具体地,论文将超级智能体实例化为 DGM-Hyperagents。DGM-H是对DGM的扩展,其中任务解决行为和自我改进程序都是可编辑且可进化的。

其核心框架包含:
* 自指性架构:将“任务智能体”与“元智能体”整合为一个单一、可编辑的程序。
* 元级进化:在Hyperagents中,“改进的方法”本身也是可以被改进的。这使得系统不再要求任务与修改必须严格对齐,从而实现了跨领域的元认知自我修改。
类比来说,在Hyperagents中,运动员(任务智能体)在训练,同时教练(元智能体)也在学习如何更好地执教,两者水平螺旋式上升。
此外,DGM-H还改进了生成新智能体的过程(例如引入持久化记忆、性能追踪等),且这些元级改进具备跨领域迁移和跨运行累积的特性。
实验验证:从20%到50%的跨越
实验证明,达尔文哥德尔机能够通过修改自身代码库实现持续的自我提升。
在SWE-bench基准测试上,DGM自动将其性能从 20.0% 提升至 50.0%。

在Polyglot基准测试上,DGM的性能从初始的14.2%跃升至30.7%,显著超越了由Aider开发的人工设计智能体。

这些结果验证了DGM能够发现并实施有效的自我改进。其关键在于开放式进化搜索策略:通过从现有智能体库中采样生成新智能体,DGM能够并行探索多条进化路径。

性能稍逊的“祖先”智能体在发现新方法和功能方面起到关键作用,避免了系统过早收敛到局部最优。

此外,DGM的改进表现出广泛的迁移性:
* 针对Claude 3.5 Sonnet优化的智能体,在切换到o3-mini或Claude 3.7 Sonnet时仍能提升性能。
* 在Polyglot基准中,基于Python任务的自我改进,同样提升了其在Rust、C++、Go等其他语言任务上的表现。

作者介绍
这篇论文的第一作者是来自不列颠哥伦比亚大学的 Jenny Zhang,她师从 Jeff Clune 教授。其本科就读于帝国理工学院,这篇论文是她在Meta实习期间完成的,研究方向聚焦于强化学习、自改进AI与开放式AI。


Bingchen Zhao 是来自爱丁堡大学的博士生,师从 Oisin Mac Aodha 教授。他本科毕业于同济大学,此前在Meta FAIR团队致力于构建自我改进的AI系统。

Wannan Yang 在纽约大学攻读博士学位,目前在Meta超级智能实验室实习,本科毕业于爱丁堡大学。

论文的其他作者还包括Jeff Clune,以及来自Meta的研究员 Minqi Jiang(已离职)、Sam Devlin 和 Tatiana Shavrina。
当AI初创企业成为全球焦点,如何把握出海机遇?
对于已经出海、正在筹备或希望理解全球AI创业逻辑的从业者而言,深入探讨其发展路径与挑战正当时。
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/27438


