Meta提出超级智能体Hyperagents:能无限自我迭代的达尔文哥德尔机,AI安全成核心议题

Meta提出超级智能体Hyperagents:能无限自我迭代的达尔文哥德尔机AI安全成核心议题(1/2)

能无限自我迭代的“超级智能体”已经到来。

近期,Meta研究团队发表了一篇题为 《HYPERAGENTS》 的论文,迅速引发广泛关注。该论文将LSTM之父 Jürgen Schmidhuber 在二十多年前提出的 哥德尔机 思想,与 达尔文开放算法 相结合,提出了一种能够持续自我迭代的 达尔文哥德尔机

Meta提出超级智能体Hyperagents:能无限自我迭代的达尔文哥德尔机,AI安全成核心议题

基于这一架构,智能体不仅能更出色地完成具体任务、持续提升表现,更关键的是,它能够 不断优化“改进自身”的底层逻辑,实现真正的“元学习”。

这便是论文所定义的新一代超级智能体——Hyperagents

论文进一步指出,未来AI有望通过这种持续的自我迭代,最终突破人类预设的初始算法边界。正因如此,AI安全问题必须被置于核心位置

这篇论文现已被ICLR 2026接收。

Meta提出超级智能体Hyperagents:能无限自我迭代的达尔文哥德尔机,AI安全成核心议题
Meta提出超级智能体Hyperagents:能无限自我迭代的达尔文哥德尔机,AI安全成核心议题

从哥德尔机到达尔文哥德尔机

要理解超级智能体Hyperagents,首先需要了解其理论基础——哥德尔机

哥德尔机是一种假设性的自我完善型AI。其核心在于从数学上寻求证明:如果存在某种更优的策略,它将通过递归重写自身代码来解决问题。这一设想由Jürgen Schmidhuber于二十多年前首次提出。

Meta提出超级智能体Hyperagents:能无限自我迭代的达尔文哥德尔机,AI安全成核心议题

在传统机器学习中,AI的“学习方法”是人类预设的硬编码,它只能通过调整内部参数来逼近目标。而哥德尔机打破了这一限制,它将算法框架本身视为可编辑的代码,通过自主重写程序来实现学习能力的自我演进

然而,哥德尔机面临一个现实难题:它要求在自我演进前,必须从数学上证明该改动能带来净收益(即改进带来的收益超过其计算成本)。在复杂的现实任务中,这种证明几乎无法实现。

针对此问题,Meta团队提出了达尔文哥德尔机。它利用开放式算法,通过在大模型提议的代码改进方案中进行搜索,筛选出能从经验上提升性能的方案

Meta提出超级智能体Hyperagents:能无限自我迭代的达尔文哥德尔机,AI安全成核心议题

换言之,DGM利用基础模型生成代码改进提议,并借助开放式算法的最新成果,搜索并构建一个不断增长、多样化且高质量的智能体库。基于此,DGM能创造出多种自我改进策略,例如增加补丁验证步骤、优化文件查看功能、增强编辑工具、生成并筛选多个解决方案以选出最优解,以及在实施新更改时自动记录并分析历史尝试。

实验表明,DGM获得的计算资源越多,其自我提升的效果就越好。

超级智能体Hyperagents

尽管DGM能力强大,但它存在一个关键局限:主要适用于编程任务。这是因为DGM依赖一个核心假设——评估任务与自我修改任务必须“对齐”

Meta提出超级智能体Hyperagents:能无限自我迭代的达尔文哥德尔机,AI安全成核心议题

在编程领域,这种对齐是天然的:提升编程能力,就等于提升了修改自身代码的能力。解决外部编程问题的逻辑工具,可以直接用于修改自身底层代码。

然而,在非编程领域(如诗歌创作),即便提升了任务能力,也无法直接转化为修改代码的逻辑水平。在这种缺乏 “自指性” 的任务中,DGM的递归进化链条便会断裂,陷入停滞。

为此,论文提出了超级智能体概念——它们既能修改自己的任务执行行为,也能修改生成未来改进建议的整个过程。这实现了 “元认知自我修改”:不仅学习如何做得更好,还学习如何更有效地进行改进。

具体地,论文将超级智能体实例化为 DGM-Hyperagents。DGM-H是对DGM的扩展,其中任务解决行为和自我改进程序都是可编辑且可进化的。

Meta提出超级智能体Hyperagents:能无限自我迭代的达尔文哥德尔机,AI安全成核心议题

其核心框架包含:
* 自指性架构:将“任务智能体”与“元智能体”整合为一个单一、可编辑的程序。
* 元级进化:在Hyperagents中,“改进的方法”本身也是可以被改进的。这使得系统不再要求任务与修改必须严格对齐,从而实现了跨领域的元认知自我修改。

类比来说,在Hyperagents中,运动员(任务智能体)在训练,同时教练(元智能体)也在学习如何更好地执教,两者水平螺旋式上升。

此外,DGM-H还改进了生成新智能体的过程(例如引入持久化记忆、性能追踪等),且这些元级改进具备跨领域迁移和跨运行累积的特性。

实验验证:从20%到50%的跨越

实验证明,达尔文哥德尔机能够通过修改自身代码库实现持续的自我提升。

在SWE-bench基准测试上,DGM自动将其性能从 20.0% 提升至 50.0%

Meta提出超级智能体Hyperagents:能无限自我迭代的达尔文哥德尔机,AI安全成核心议题

在Polyglot基准测试上,DGM的性能从初始的14.2%跃升至30.7%,显著超越了由Aider开发的人工设计智能体。

Meta提出超级智能体Hyperagents:能无限自我迭代的达尔文哥德尔机,AI安全成核心议题

这些结果验证了DGM能够发现并实施有效的自我改进。其关键在于开放式进化搜索策略:通过从现有智能体库中采样生成新智能体,DGM能够并行探索多条进化路径。

Meta提出超级智能体Hyperagents:能无限自我迭代的达尔文哥德尔机,AI安全成核心议题

性能稍逊的“祖先”智能体在发现新方法和功能方面起到关键作用,避免了系统过早收敛到局部最优。

Meta提出超级智能体Hyperagents:能无限自我迭代的达尔文哥德尔机,AI安全成核心议题

此外,DGM的改进表现出广泛的迁移性
* 针对Claude 3.5 Sonnet优化的智能体,在切换到o3-mini或Claude 3.7 Sonnet时仍能提升性能。
* 在Polyglot基准中,基于Python任务的自我改进,同样提升了其在Rust、C++、Go等其他语言任务上的表现。

Meta提出超级智能体Hyperagents:能无限自我迭代的达尔文哥德尔机,AI安全成核心议题

作者介绍

这篇论文的第一作者是来自不列颠哥伦比亚大学的 Jenny Zhang,她师从 Jeff Clune 教授。其本科就读于帝国理工学院,这篇论文是她在Meta实习期间完成的,研究方向聚焦于强化学习、自改进AI与开放式AI。

Meta提出超级智能体Hyperagents:能无限自我迭代的达尔文哥德尔机,AI安全成核心议题
Meta提出超级智能体Hyperagents:能无限自我迭代的达尔文哥德尔机,AI安全成核心议题

Bingchen Zhao 是来自爱丁堡大学的博士生,师从 Oisin Mac Aodha 教授。他本科毕业于同济大学,此前在Meta FAIR团队致力于构建自我改进的AI系统。

Meta提出超级智能体Hyperagents:能无限自我迭代的达尔文哥德尔机,AI安全成核心议题

Wannan Yang 在纽约大学攻读博士学位,目前在Meta超级智能实验室实习,本科毕业于爱丁堡大学。

Meta提出超级智能体Hyperagents:能无限自我迭代的达尔文哥德尔机,AI安全成核心议题

论文的其他作者还包括Jeff Clune,以及来自Meta的研究员 Minqi Jiang(已离职)、Sam Devlin 和 Tatiana Shavrina。

当AI初创企业成为全球焦点,如何把握出海机遇?

对于已经出海、正在筹备或希望理解全球AI创业逻辑的从业者而言,深入探讨其发展路径与挑战正当时。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/27438

(0)
上一篇 2026年3月26日 上午10:43
下一篇 2026年3月26日 上午10:48

相关推荐

  • TPU订单背后的算力博弈:谷歌、英伟达与AI芯片市场的真实格局

    近期,Meta被曝将与谷歌签订价值数十亿美元的TPU订单,这一消息在资本市场引发剧烈震荡:英伟达盘中最大跌幅达7%,市值一度蒸发超3000亿美元;而谷歌股价则一度上涨4%,市值增加约1500亿美元。《华尔街日报》将此解读为谷歌向英伟达市场主导地位发起冲击的信号。然而,从技术演进与产业生态的深层视角审视,这场看似突如其来的“算力变局”,实则揭示了AI芯片市场更…

    2025年11月29日
    25400
  • 开源巨震!艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减

    开源领域突遭巨震:艾伦AI研究所核心团队集体跳槽微软,OLMo项目资金遭削减 开源人工智能领域传来重大变动。艾伦人工智能研究所宣布,将削减对包括旗舰项目OLMo在内的开源模型开发的资金投入,转而聚焦于AI应用。 与此同时,该研究所的核心团队几乎被整体“打包”,集体加入微软。此次人员变动涉及前CEO阿里·法哈迪、前首席运营官索菲·莱布雷希特,以及核心研究员汉娜…

    2026年3月30日
    24300
  • 注意力机制演进:Kimi Linear混合架构如何突破效率与性能的平衡困境

    在大型语言模型快速发展的当下,注意力机制的计算效率与表达能力之间的权衡已成为制约模型规模化应用的核心瓶颈。传统softmax注意力机制虽然具备强大的表达能力,但其二次方的计算复杂度在处理长序列时带来了巨大的计算和内存开销。线性注意力机制通过线性化计算将复杂度降至线性,但长期面临表达能力不足的挑战,尤其是在语言建模等复杂任务中表现欠佳。 近期,月之暗面发布的K…

    2025年10月31日
    38500
  • xAI估值飙升背后:大模型竞赛进入资本驱动新阶段

    近日,华尔街日报披露xAI正计划进行新一轮150亿美元(约1067亿人民币)融资,公司估值或将达到2300亿美元(约1.6万亿人民币)。这一数字较今年3月xAI与X合并后的1130亿美元估值翻倍有余,引发业界广泛关注。 从估值增长轨迹来看,xAI的崛起速度堪称惊人。公司于2023年7月由马斯克正式创立,最初定位为公益性机构,宣称要“理解宇宙的真实本质”。20…

    2025年11月20日
    30800
  • 突破边缘部署瓶颈:Fairy2i框架实现2比特量化逼近FP16精度

    在人工智能模型日益庞大的今天,如何在资源受限的边缘设备上高效部署大模型成为行业核心挑战。传统量化方法在压缩至1-2比特时往往面临精度断崖式下跌,而北京大学团队最新提出的Fairy2i框架,通过创新的复数域量化技术,实现了无需重新训练即可将预训练模型压缩至2比特,同时保持接近全精度(FP16)性能的突破性进展。 Fairy2i的核心创新在于构建了一个完整的量化…

    2025年12月10日
    34500