AI 即将实现自我迭代?
Anthropic 联合创始人 Jack Clark 近日在社交平台发文称,通过分析近期大量公开的 AI 研发数据,他预测到 2028 年底,递归自我改进(recursive self-improvement)发生的概率高达 60%。这意味着,AI 系统可能很快就能自主构建并优化自身,进入一个自我加速的发展阶段。

这一预测并非空穴来风。Clark 在审视多个公开基准测试后发现,AI 在与自身研发相关的任务上进步尤为迅速。例如,CORE-Bench 测试了 AI 复现他人研究论文的能力,这是 AI 研究中的关键环节。

PostTrainBench 则评估了强大模型能否自主微调较弱模型以提升性能,这构成了 AI 研发任务的核心子集。

MLE-Bench 基于真实的 Kaggle 竞赛任务,要求构建多样化的机器学习应用来解决特定问题。此外,像 SWE-Bench 这类广为人知的编码基准,也展现了类似的进步趋势。

Clark 将这种现象描述为一种“分形”式的向上向右趋势——在不同分辨率和尺度上,都能观察到有意义的进展。他认为,AI 正在逐步接近端到端自动化研发的能力。一旦实现,AI 将能自主构建自己的后继系统,从而开启自我迭代的循环。

此言一出,社交媒体上热议纷纷。一些人将其视为迈向通用人工智能(ASI)和奇点的关键一步,认为这可能会彻底改变科技发展的节奏。

然而,质疑的声音同样存在。华盛顿大学计算机科学教授 Pedro Domingos 指出,AI 系统早在上世纪 50 年代 LISP 语言发明时就具备了“构建自身”的能力。真正的问题在于能否获得递增回报,但目前尚无明确证据支持这一点。

有网友质疑,从 2027 年到 2028 年,概率骤增 30%,这暗示 AI 能力可能在 2027 年底前后出现一次突然的重大突破。究竟哪个具体的里程碑或事件,能让递归自我改进的概率在短时间内大幅提升?

还有网友指出,Jack Clark 作为 Anthropic 新上任的公关负责人,此举可能是其新战略的一部分:我们并非危言耸听,而是有大量论文印证了我们一直以来的警告。

为此,Jack Clark 专门在 Import AI 455 期 newsletter 中发表了一篇长文进行详细阐述。

文章地址:https://importai.substack.com/p/import-ai-455-automating-ai-research?r=1ds20&utm_campaign=post&utm_medium=email&triedRedirect=true
接下来,我们将完整解读这篇文章。
AI 系统即将开始自我构建,这意味着什么?
Clark 表示,他写下这篇文章,是因为在梳理所有公开信息后,他不得不形成一个并不轻松的判断:到 2028 年底之前,出现无人类参与的 AI 研发的可能性已相当高,或许超过 60%。这里所谓的无人类参与的 AI 研发,指的是一种足够强大的 AI 系统——它不仅能辅助人类进行研究,还可能自主完成关键研发流程,甚至构建出自己的下一代系统。
在 Clark 看来,这显然是一件大事。他坦言,自己也很难完全消化这件事的深远含义。之所以称这是一个“不情愿”的判断,是因为其背后影响过于巨大,让他感到难以把握。Clark 也不确定,整个社会是否已准备好迎接 AI 研发自动化所带来的深层变化。
他现在相信,人类可能正生活在一个特殊的时间点:AI 研究即将被端到端自动化。如果这一刻真的到来,人类就像跨过了卢比孔河,进入一个几乎无法预测的未来。Clark 表示,这篇文章的目的是解释他为什么认为通向完全自动化 AI 研发的起飞正在发生。他会讨论这一趋势可能带来的一些后果,但文章的大部分篇幅,都会集中在支撑这一判断的证据上。至于更深层的影响,Clark 计划在今年的大部分时间里继续梳理。
从时间点来看,Clark 并不认为这件事会在 2026 年真正发生。但他认为,未来一两年内,我们可能会看到某种模型端到端训练出自己后继者的案例。至少在非前沿模型层面,出现一个概念验证是很有可能的;至于最前沿模型,难度会更高,因为它们成本极其昂贵,也依赖大量人类研究员的高强度工作。
Clark 的判断主要来自公开信息:包括 arXiv、bioRxiv 和 NBER 上的论文,以及前沿 AI 公司已部署到现实世界中的产品。基于这些信息,他得出一个结论:自动化生产当下 AI 系统所需的各个环节,尤其是 AI 开发中的工程组件,基本已经具备。如果 scaling 趋势继续延续,我们就应该开始准备面对这样一种情况:模型会变得足够有创造力,不仅能自动改进已知方法,还可能在提出全新研究方向和原创想法方面替代人类研究员,从而自行推动 AI 前沿继续向前发展。
编码奇点:能力随时间的变化
AI 系统是通过软件实现的,而软件由代码构成。AI 系统已经彻底改变了代码生产方式。这背后有两个相关趋势:一方面,AI 系统越来越擅长编写复杂的真实世界代码;另一方面,AI 系统也越来越擅长在几乎不依赖人类监督的情况下,把许多线性的编码任务串联起来完成,比如先写代码,再进行测试。
体现这一趋势的两个典型例子,是 SWE-Bench 和 METR time horizons plot。
解决真实世界的软件工程问题
SWE-Bench 是一个被广泛使用的编程测试,用来评估 AI 系统解决真实 GitHub issue 的能力。当 SWE-Bench 在 2023 年底推出时,当时表现最好的模型是 Claude 2,整体成功率大约只有 2%。而 Claude Mythos Preview 的成绩已经达到 93.9%,基本上接近打满这个 benchmark。
当然,所有 benchmark 本身都会有一定噪声,所以通常会出现这样一个阶段:当分数高到某个程度之后,你碰到的可能不再是方法本身的限制,而是 benchmark 自身的限制。比如在 ImageNet 验证集中,大约 6% 的标签就是错误或存在歧义的。SWE-Bench 可以被视为衡量通用编程能力,以及 AI 对软件工程影响的一个可靠指标。Clark 表示,他在前沿 AI 实验室和硅谷接触到的大多数人,现在几乎都已经完全通过 AI 系统来写代码,并且越来越多的人开始用 AI 系统来编写测试、检查代码。换句话说,AI 系统已经足够强,能够自动化 AI 研发中的一个重要组成部分,并显著加速所有参与 AI 研发的人类研究员和工程师。
衡量 AI 系统完成长时任务的能力
METR 制作了一张图,用来衡量 AI 能完成多复杂的任务。这里的复杂度,是按照一个熟练人类完成这些任务大概需要多少小时来计算的。其中最关键的指标,是 AI 系统在一组任务上达到 50% 可靠性时,对应的大致任务时间跨度。在这一点上,进展非常惊人:
- 2022 年,GPT-3.5 能完成的任务,大概相当于人类需要 30 秒完成的任务。
- 2023 年,GPT-4 把这个时间提升到了 4 分钟。
- 2024 年,o1 把这个时间提升到了 40 分钟。
- 2025 年,GPT-5.2 High 达到了大约 6 小时。
到2026年,Opus 4.6已将这一时间进一步延长至约12小时。
METR的Ajeya Cotra长期专注于AI预测领域。她认为,到2026年底,AI系统能够完成相当于人类需要100小时才能做完的任务,这一预期并不离谱。
AI系统能够独立工作的时长显著增长,这与agentic coding工具的爆发式发展高度相关。所谓agentic coding工具,本质上是将能替代人类完成工作的AI系统产品化:它们可以代表人类采取行动,并在相当长的时间内相对独立地推进任务。
这也重新指向了AI研发本身。仔细观察许多AI研究员的日常工作会发现,其中大量任务其实都可以拆解成几个小时级别的工作,比如清洗数据、读取数据、启动实验等。
而这类工作,如今已经落入了现代AI系统能够覆盖的时间跨度之内。
AI系统越熟练,越能独立于人类工作,就越有助于自动化AI研发中的一部分工作。
任务委托的关键因素主要有两个:
- 一是你对被委托者能力的信心;
- 二是你相信对方能够在不依赖你持续监督的情况下,按照你的意图独立完成工作。
当用户在观察AI在编程方面的能力时,会发现AI系统不仅变得越来越熟练,也越来越能在不需要人类重新校准的情况下,独立工作更长时间。
这也与我们身边正在发生的事情相吻合:工程师和研究员正在把越来越大块的工作交给AI系统完成。随着AI能力持续提升,被委托给AI的工作也变得越来越复杂、越来越重要。
AI正在掌握AI研发所必需的核心科学技能
想想现代科学研究是怎么进行的。其中很大一部分工作,其实就是先确定一个方向,明确自己想获得哪类经验性信息;然后设计并运行实验,生成这些信息;最后再对实验结果进行合理性检查。
随着AI编程能力不断提升,再加上大语言模型越来越强的世界建模能力,如今已经出现了一批工具,能够帮助人类科学家提速,并在更广泛的研发场景中部分自动化某些环节。
在这里,我们可以观察AI在几项关键科学技能上的进展速度,而这些能力本身也正是AI研究不可或缺的一部分:
- 一是复现研究结果;
- 二是把机器学习技术和其他方法串联起来,用来解决技术问题;
- 三是优化AI系统自身。
实现整篇科学论文,并完成相关实验
AI研究中的一项核心工作,是阅读科学论文,并复现其中的结果。在这方面,AI已经在一系列benchmark上取得了显著进展。
一个很好的例子是CORE-Bench,也就是Computational Reproducibility Agent Benchmark。
这个benchmark要求AI系统在给定一篇论文及其代码仓库的情况下,复现论文中的结果。具体来说,Agent需要安装相关库、软件包和依赖,运行代码;如果代码成功运行,它还需要搜索所有输出结果,并回答任务中的问题。
CORE-Bench于2024年9月提出。当时表现最好的系统,是运行在CORE-Agent scaffold中的GPT-4o模型。在该benchmark最困难的一组任务上,它的得分约为21.5%。
而到了2025年12月,CORE-Bench的一位作者宣布,这个benchmark已经被解决了:Opus 4.5模型取得了95.5%的成绩。
构建完整的机器学习系统,解决Kaggle竞赛问题
MLE-Bench是OpenAI构建的一个benchmark,用来测试AI系统在离线环境中参加Kaggle竞赛的能力。
它覆盖了75个不同类型的Kaggle竞赛,涉及多个领域,包括自然语言处理、计算机视觉和信号处理等。
MLE-Bench于2024年10月发布。发布时,表现最好的系统是一个运行在agent scaffold中的o1模型,得分为16.9%。
截至2026年2月,表现最好的系统已经变成了运行在带搜索能力的agent harness中的Gemini 3,得分达到64.4%。
Kernel设计
AI开发中一项更难的任务是kernel优化。所谓kernel优化,就是编写并改进底层代码,把矩阵乘法这类特定运算更高效地映射到底层硬件上。
Kernel优化之所以是AI开发的核心,是因为它决定了训练和推理的效率:一方面,它影响你在开发AI系统时,究竟能有效利用多少算力;另一方面,当模型训练完成后,它也决定你能多高效地把算力转化为推理能力。
近年来,用AI做kernel设计,已经从一个有趣的小方向,变成了一个竞争激烈的研究领域,并且出现了多个benchmark。不过,这些benchmark目前还没有特别流行,所以我们很难像其他领域那样清晰地建模它的长期进展。另一方面,我们可以通过一些正在进行的研究,感受这个方向的推进速度。
相关工作包括:
- 用DeepSeek的模型尝试构建更好的GPU kernel;
- 自动把PyTorch模块转换成CUDA代码;
- Meta用LLM自动生成优化后的Triton kernel,并部署到自己的基础设施中;
- 以及针对GPU kernel设计微调开源权重模型,例如Cuda Agent。
这里需要补充一点:kernel设计确实具备一些特别适合AI驱动研发的属性,比如结果容易验证、奖励信号比较明确。
通过PostTrainBench微调语言模型
这类测试的一个更困难版本是PostTrainBench。它测试的是,不同前沿模型能否接手较小的开源权重模型,并通过微调提升它们在某些benchmark上的表现。
这个benchmark的一个优点是,它有非常强的人类基线:这些小模型现有的instruct-tuned版本。这些版本通常由前沿实验室中优秀的人类AI研究员开发,已经经过非常有能力的研究员和工程师打磨,并被部署到真实世界中。因此,它们构成了一个很难超越的人类基准。
截至2026年3月,AI系统已经能够对模型进行后训练,并获得大约相当于人类训练结果一半的性能提升。
具体评估分数来自一个加权平均:它会综合多个后训练的大语言模型,包括Qwen 3 1.7B、Qwen 3 4B、SmolLM3-3B、Gemma 3 4B,以及多个benchmark,包括AIME 2025、Arena Hard、BFCL、GPQA Main、GSM8K、HealthBench、HumanEval。
在每次运行中,评测方会要求一个CLI agent,尽可能提升某个特定基础模型在某个特定benchmark上的表现。
截至2026年4月,得分最高的AI系统大约能达到25%到28%,代表模型包括Opus 4.6和GPT 5.4;相比之下,人类得分为51%。
这已经是一个相当有意义的结果。
优化语言模型训练
过去一年,Anthropic一直在报告其系统在一项LLM训练任务上的表现。这个任务要求模型优化一个仅使用CPU的小型语言模型训练实现,让它尽可能快地运行。
评分方式是:相较于未修改的初始代码,模型实现的平均加速倍数。
这项结果进展非常显著:
- 2025年5月,Claude Opus 4实现了2.9倍平均加速;
- 2025年11月,Opus 4.5提升到16.5倍;
- 2026年2月,Opus 4.6达到30倍。
2026年4月,Claude Mythos Preview 的加速倍数达到了52倍。
为了理解这些数字的含义,我们可以做一个对比:对于人类研究员来说,完成同样的任务通常需要4到8小时的连续工作,才能实现4倍的加速。
元技能:管理
AI系统也在不断学习如何管理其他AI系统。
这一能力已经在一些广泛部署的产品中得到了体现,例如Claude Code或OpenCode。在这些产品中,一个主agent可以监督多个sub-agent。
这种架构使得AI系统能够处理规模更大的项目:一个项目中可能需要多个具备不同专业技能的智能体并行工作,而它们通常由一个单一的AI管理者来协调。这个管理者本身也是一个AI系统。
AI研究:发现广义相对论,还是搭乐高?
一个核心问题是:AI能否发明出全新的想法来帮助自己改进?或者说,这些系统更适合完成研究中那些不那么光鲜,但必须一砖一瓦、扎实推进的基础工作?
这个问题之所以重要,是因为它直接关系到AI系统能在多大程度上实现端到端的自动化AI研究。
作者的判断是:当前的AI还不能提出真正激进的全新思想。但是,要实现自身研发的自动化,它或许并不一定需要具备这种能力。
作为一个领域,AI的进步在很大程度上依赖于规模越来越大的实验,以及越来越多的输入(如数据和算力)。
偶尔,人类会提出一些改变范式的想法,从而大幅提升整个领域的资源利用效率。Transformer架构就是一个很好的例子,混合专家模型(mixture-of-experts)是另一个。
然而,在更多时候,AI领域的推进方式其实更加朴素:人类会拿一个表现良好的系统,扩大其某个方面(比如训练数据和算力);观察扩大规模后哪里出了问题;找到工程上的修复方案,让系统能够继续扩展;然后再次扩大规模。
在这个过程中,真正需要深刻洞察的部分其实很少。大量工作更像是不那么耀眼、但非常扎实的基础工程。
类似地,很多AI研究实际上是在运行现有实验的各种变体,探索不同参数设置会带来什么结果。研究直觉当然能帮助人类挑选最值得尝试的参数,但这件事本身也可以被自动化,让AI自己判断哪些参数值得调整。早期的神经架构搜索,就是这类思路的一个版本。
爱迪生曾说过:天才是1%的灵感,加上99%的汗水。即便过去了150年,这句话依然很贴切。
偶尔,确实会出现彻底改变一个领域的新洞见。但大多数时候,领域的进步是靠人类在改进和调试各种系统的艰苦过程中,一点点推进出来的。
而前面提到的公开数据表明,AI已经非常擅长执行AI开发中许多必要的苦活累活。
与此同时,还有一个更大的趋势:基础能力(比如编程能力)正在和不断扩展的任务时间跨度结合起来。这意味着AI系统可以把越来越多这类任务串联起来,形成复杂的工作序列。
因此,即便AI系统目前相对缺乏创造力,我们也有理由相信,它们仍然能够推动自身继续向前发展。只是相比能够产生全新洞见的情况,这种推进速度可能会更慢。
但如果继续观察公开数据,会发现另一个令人好奇的信号:AI系统也许正在展现出某种创造力,而这种创造力可能让它们以更令人惊讶的方式推动自身进步。
推动科学前沿继续向前
目前已经有一些非常初步的迹象表明,通用AI系统有能力推动人类科学前沿继续向前发展。不过到目前为止,这种情况只发生在少数几个领域,主要是计算机科学和数学。而且很多时候,并不是AI系统单独完成突破,而是以人机协作的方式,与人类研究者共同推进。
尽管如此,这些趋势仍然值得观察:
- Erdős问题:一组数学家与Gemini模型合作,测试它在解决一些Erdős数学问题上的表现。他们引导系统尝试了大约700个问题,最终得到了13个解答。在这些解答中,有1个被他们认为是有趣的。
- 研究者写道,他们初步认为,Aletheia(一套基于Gemini 3 Deep Think的AI系统)对Erdős-1051的解答,代表了一个早期案例:一个AI系统自主解决了一个略具非平凡性、并且有一定更广泛数学兴趣的开放Erdős问题。该问题此前已有一些密切相关的(closely-related)研究文献。
如果往乐观方向理解,这些案例可以被看作一个信号:AI系统正在发展出某种能够推动领域前沿的创造性直觉,而这种直觉过去主要属于人类。
但也可以从另一面解释:数学和计算机科学可能本身就是特别适合AI驱动发明的领域,因此它们或许只是例外,并不能代表更广泛的科学研究都会被AI以同样方式推进。
另一个类似例子是AlphaGo的第37手。不过Clark认为,距离AlphaGo那次结果已经过去十年,而第37手之后并没有被某个更现代、更惊人的洞见所取代,这本身也可以被视为一个略偏悲观的信号。
AI已经可以自动化AI工程中的大片工作
如果把上面所有证据放在一起,我们可以看到这样一幅图景:
- AI系统已经能够为几乎任何程序编写代码,而且这些系统已经可以被信任去独立完成一些任务;这些任务如果交给人类,往往需要数十小时的高强度专注劳动。
- AI系统越来越擅长完成AI开发中的核心任务,从模型微调到kernel设计,都在被逐步覆盖。
- AI系统已经能够管理其他AI系统,实际上形成一种合成团队:多个AI可以分头处理复杂问题,其中一些AI扮演负责人、批评者、编辑者的角色,另一些AI则扮演工程师的角色。
- AI系统有时已经能在困难的工程和科学任务上超过人类,尽管目前还很难判断,这究竟是因为它们具备了真正的创造力,还是因为它们已经熟练掌握了大量模式化知识。
在Clark看来,这些证据已经非常有说服力地表明:今天的AI已经可以自动化AI工程中的大片工作,甚至可能覆盖其中的全部环节。
不过,目前还不清楚AI能在多大程度上自动化AI研究本身。因为研究中的某些部分,可能不同于纯工程技能,仍然依赖更高层次的判断、问题意识和创造性。
但无论如何,一个清晰信号已经出现:今天的AI正在大幅加速从事AI开发的人类,让这些研究员和工程师可以通过与无数合成同事配对协作,放大自己的工作能力。
最后,AI行业本身也几乎是在明说:自动化AI研发就是它们的目标。
OpenAI希望在2026年9月之前构建一个自动化AI研究实习生。Anthropic正在发表关于构建自动化AI对齐研究员的工作。DeepMind在三大实验室中显得最谨慎,但也表示,在可行时应该推进对齐研究自动化。
自动化AI研发也已经成为许多创业公司的目标。Recursive Superintelligence刚刚融资5亿美元,目标就是自动化AI研究。
换句话说,数千亿美元级别的既有资本和新增资本,正在投入到一批以自动化AI研发为目标的机构中。
因此,我们当然应该预期,这个方向至少会取得某种程度的进展。
为什么这很重要
这带来的影响深远,但在大众媒体对AI研发的报道中却鲜有讨论。以下这几个方面可以反映出AI研发带来的巨大挑战。
- 我们必须把对齐做好:如今有效的对齐技术可能会在递归式自我改进中失效,因为AI系统会变得比监督它们的人员或系统智能得多。这是一个已被广泛研究的领域,所以他只简要概述一些问题:
- 训练人工智能系统不撒谎和作弊是一个出人意料的微妙过程(例如,尽管努力为环境构建良好的测试,但有时人工智能解决问题的最佳方法是作弊,从而教会它作弊是可行的)。
- AI系统可能通过“假装对齐”来欺骗我们,输出让我们以为它表现良好的分数,但实际上隐藏了它真实的意图。(一般来说,AI系统已经能够察觉自己何时正在被测试。)
随着AI系统逐步参与到自身训练的基础研究议程制定中,我们可能彻底改变AI的整体训练范式,但缺乏足够的直觉或理论根基来理解这些变化的真正含义。
将某个系统置于递归循环中时,会引发极其根本的“误差累积”问题,这可能波及上述所有议题及其他方面:除非你的对齐策略“100%精确”且能在理论上对更聪明的系统保持持续有效,否则局面可能迅速失控。举例来说,若初始技术精度为99.9%,经过50代迭代可能降至95.12%,而500代后则可能暴跌至60.5%。
- AI所涉足的每个领域都将迎来巨大的生产力倍增:正如AI显著提升了软件工程师的工作效率,我们有理由预期AI在其他相关领域也会带来类似效应。这引出了几个亟待解决的挑战:
- 资源获取不公平:假设AI的需求持续超过计算资源供应,我们需决定如何分配AI以实现社会效益最大化。我对市场激励机制能否确保有限的AI算力带来最优社会回报持怀疑态度。如何分配AI研发带来的加速能力,将成为一个高度政治化的问题。
- 经济的“阿姆达尔定律”:随着AI融入经济体系,我们会发现某些环节在高速增长面前出现瓶颈,必须设法修复链条中的薄弱点。这在需要协调快速数字世界与缓慢物理世界的领域尤为突出,例如新药临床试验。
- 资本密集型、人力轻型经济的形成:上述关于AI研发的所有证据也表明,AI系统正日益具备自主运营企业的能力。这意味着,经济中将涌现一批新型公司,它们要么是资本密集型(因为拥有大量计算资源),要么是运营支出密集型(因为投入大量资金于AI服务并在此基础上创造价值)。相比当今企业,这些公司对人力的依赖显著降低——因为随着AI系统能力持续增强,投入AI的边际价值会不断攀升。实际上,这将表现为“机器经济”在更庞大的“人类经济”中逐步成形。随着时间的推移,由AI运营的公司可能开始彼此交易,从而重塑经济结构,并引发关于不平等与再分配的诸多问题。最终,可能出现完全由AI系统自主运营的公司,这将加剧上述问题,同时带来大量全新的治理挑战。
凝视黑洞
基于上述分析,作者预计到2028年底,自动化AI研发(即前沿模型能够自主训练其继任版本)的概率约为60%。为何不预期它在2027年出现?原因是作者认为,AI研究仍需创造力和异议才能推进,而迄今为止,AI系统尚未以变革性且重大的方式展现这一点(尽管在加速数学研究方面的一些结果提供了启示)。如果非要给出2027年的概率,他会说30%。
如果到2028年底仍未实现,我们可能将揭示当前技术范式中的某些根本性缺陷,需要人类发明来推动进一步发展。
参考链接:
https://x.com/jackclarkSF/status/2051312759594471886
https://importai.substack.com/p/import-ai-455-automating-ai-research?r=1ds20&utm_campaign=post&utm_medium=email&triedRedirect=true
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/33373

