转眼间,AlphaEvolve 已经问世整整一年。
就在不久前,谷歌低调地发布了一份震撼业界的年度成果总结。
这份成绩单显示,在短短一年间,AlphaEvolve 完成了诸多突破性任务:协助陶哲轩破解数学难题、为量子芯片重新设计电路、优化电网调度策略、加速药物筛选流程,甚至直接参与了下一代 TPU 硅片的设计改进。

这些事实清晰地表明:AlphaEvolve 早已不再是实验室中的概念验证工具。

这个由 Gemini 驱动的进化式编程智能体,仅用一年时间就从论文中的理论设想,成长为谷歌核心基础设施中不可或缺的一环。
正如一位网友所评论的:这种递归式的自我改进能力,简直令人难以置信。

与人类顶尖智慧并肩作战
首先,让我们聚焦于最令人震惊的成果。
在基因组学领域,AlphaEvolve 成功优化了谷歌的 DeepConsensus 模型,将 DNA 测序中的变异检测错误率大幅降低了 30%。
PacBio 的高级总监 Aaron Wenger 评价道,这一突破意味着研究人员可能发现此前被隐藏的致病突变——换句话说,由 AI 优化的算法,有望为人类找到新的救命线索。

在量子计算领域,AlphaEvolve 为谷歌的 Willow 量子处理器设计了一套全新的量子电路方案,其错误率相比传统优化方法降低了整整 10 倍。
请注意,这里不是 10%,而是 10 倍。这一成就直接使一批此前无法运行的分子模拟实验成为了现实。

然而,真正让业界为之震动的,是其在数学领域的贡献。
AlphaEvolve 与菲尔兹奖得主、UCLA 数学教授、被誉为当世最聪明数学家之一的陶哲轩(Terence Tao)合作,成功攻克了 Erdős 提出的经典数学难题。

陶哲轩的评价令人深思:像 AlphaEvolve 这样的工具,正在为数学家提供“非常有用的新能力”,特别是在优化问题上,它能快速测试潜在不等式是否存在反例、验证极值猜想,“极大地改善了对问题的直觉,也让我们更容易找到严格证明”。

|

— | —
一个 AI 系统,能让一位数学史上排名前十的头脑由衷地说出“非常有用”——这本身就是一个历史性的信号。
此外,AlphaEvolve 还刷新了旅行商问题(TSP)的已知最优解,并改进了 Ramsey 数的下界纪录。
这些都是组合数学领域经典的百年难题,几代数学家为此奋斗了几十年,而一个 AI 编程智能体,通过进化搜索的方式,找到了人类直觉从未触及过的解。
工程战线:AI 开始优化自己的“身体”
如果说上述科研突破尚可归为“聪明的工具”,那么 AlphaEvolve 在谷歌内部基础设施上的作为,则已远远超出了“工具”的范畴。
最令人震撼的一条消息是:AlphaEvolve 提出了一种“反直觉”的电路设计方案。
这个方案反直觉到了什么程度?
谷歌的芯片工程师看到它的第一反应大概率是“这不可能”——但经过测试后发现,它不仅可行,而且比人类设计的方案更高效。
于是,谷歌做出了一个重大决定:将这个由 AI 设计的电路直接集成进了下一代 TPU 的硅片中。
谷歌首席科学家 Jeff Dean 亲自为这一决策背书。

他的原话是:“AlphaEvolve 从我们 AI 技术栈最底层的硬件开始优化。它提出的电路设计如此反直觉却又如此高效,以至于被直接集成进了下一代 TPU 的硅片。这是 TPU 大脑帮助设计下一代 TPU 身体的最新案例。”

请注意这句话的分量:TPU 是训练 Gemini 的硬件,Gemini 是驱动 AlphaEvolve 的大脑,而 AlphaEvolve 现在正在设计下一代 TPU。
商业战线:从实验室走向真金白银
通过 Google Cloud,AlphaEvolve 已在多个行业实现了落地应用。
金融科技公司 Klarna 利用它优化了最大的 transformer 模型,训练速度直接翻倍,同时模型质量还得到了提升。物流公司 FM Logistic 借助它优化了旅行商问题的路线规划,效率提升了 10.4%,每年可减少 15000 公里的运输里程。计算化学公司 Schrödinger 用它加速了分子力场的训练和推理,速度提升约 4 倍——药物研发的筛选周期从数月压缩到了数天。

一年前 AlphaEvolve 发布时,业界最大的疑问是:这究竟是一个惊艳的演示 demo,还是一个真正可用的系统?
一年后的这份成绩单给出了明确的答案:它不仅可用,而且已经深入到了谷歌最核心的基础设施中,从芯片硅片到数据库内核,从量子计算到商业客户的生产环境。
但 AlphaEvolve 最关键的战绩,其实并不在上述任何一条。
让我们再次回味 Jeff Dean 的那句话:“TPU 大脑正在设计下一代 TPU 身体。”
将其翻译成更直白的语言就是:训练 AI 的芯片,正在被 AI 自己重新设计。
新芯片被制造出来后,将训练出更强的 AI,而更强的 AI 又会设计出更好的芯片——这是一个完美的闭环。
AI 造 AI:递归自我改进
就在 AlphaEvolve 交出这份成绩单的同一天,全球工程技术领域最权威的媒体之一——IEEE Spectrum——刊发了一篇长文:《Recursive Self-Improvement Edges Closer In AI Labs》(递归自我改进正在 AI 实验室中逼近现实)。

“递归自我改进”(RSI)这个词,在过去十年里基本只出现在两个场景中:AI 安全研究者的警告报告,以及科幻小说。
IEEE Spectrum 用一整篇特稿,将它从这两个场景中拉了出来,放到了工程现实的桌面上。
而让这篇报道真正引起轰动的,是 Anthropic 联合创始人 Jack Clark 同期给出的预测:到 2028 年底,有 60% 以上的概率,会出现一个 AI 系统可以完全自主地训练出自己的下一代。

他在自己的 newsletter《Import AI》第 455 期中写道,他花费了数周时间阅读了数百份公开数据源,最终得出了这一结论。

他坦言自己“不确定社会是否准备好了”。
这并非一条随意的推特发言。Clark 是 Anthropic 的联合创始人,也是 AI 安全和政策领域最具影响力的公共知识分子之一。
当这样一个人公开承认“早期信号已经出现”时,这本身就是一种强烈的信号。
如今,三条清晰的线索已摆在桌面上。
Anthropic 承认,Claude Code 写下了公司大部分代码;Dario Amodei 公开表示,工程师的效率提升了 20% 到 40%。
换句话说,制造 Claude 的代码,很大一部分是 Claude 自己写的。
谷歌这边,AlphaEvolve 正在设计训练自己的芯片。
再看学术界,2026 年 3 月发表在《Nature》上的 AI Scientist 系统,已经能够自主完成“提出想法—进行实验—撰写论文—同行评审”的全流程。

当 AI 可以参与改进下一代 AI 时,一家公司的护城河就不再是模型参数量、数据规模或算力储备——而是自演化的速度。
当然,IEEE Spectrum 的报道也呈现了另一面的声音。
Allen Institute for AI 的 Nathan Lambert 提出了“有损自我改进”(Lossy Self-Improvement)的概念——随着 AI 系统变得越来越复杂,自我改进的飞轮可能会因为摩擦增大而减速,而非无限加速。
Meta 的研究者 Jason Weston 和 Jakob Foerster 则主张,比起纯粹的自我改进,“人机共同改进”才是更现实、也更安全的路线。
当AI开始反向设计自己正在运行的芯片,当陶哲轩这样的顶尖数学家已经把它当作研究伙伴,当Claude写下了Anthropic大部分代码时——
AI自我提升的大门,是否已经被悄然推开?
答案早已不言自明。
如今,唯一值得追问的问题,只剩下一个:ASI(通用人工智能)究竟何时到来。
参考资料:
https://deepmind.google/blog/alphaevolve-impact/
https://spectrum.ieee.org/recursive-self-improvement
https://www.anthropic.com/product/claude-code
https://arxiv.org/abs/2506.13131
https://www.nature.com/articles/s41586-026-10265-5
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/33765

