去年七月,国际数学奥林匹克竞赛(IMO)见证了人工智能系统首次达到金牌水平。当时,OpenAI与谷歌DeepMind相继宣布其AI模型在此类测试中取得优异成绩,其中DeepMind的Gemini模型更是首个获得IMO官方金牌认证的AI系统。
然而,竞赛解题与真正的数学研究之间,仍存在显著差异。
此后,AI智能体技术飞速发展,其解决数学问题的能力不再仅仅依赖于模型的推理能力。如今,AI已能自主进行数学研究,甚至挑战顶尖数学家都需深思的难题。这标志着什么?
近日,谷歌DeepMind发布了由其Gemini DeepThink驱动的最新数学研究智能体Aletheia。在首届FirstProof数学研究挑战中,Aletheia自主解决了全部10道高难度研究问题中的6道,创造了该挑战的最佳纪录。

曾带领团队实现AI在IMO夺金的DeepMind超人类推理方向负责人Thang Luong表示,这一成果的意义超越了去年AI在IMO测试中获得金牌的表现。
相关研究论文《Aletheia tackles FirstProof autonomously》已发布于arXiv,团队同时在GitHub上公开了用于解决FirstProof问题的提示词与输出结果。

- 论文标题:Aletheia tackles FirstProof autonomously
- 论文链接:https://arxiv.org/pdf/2602.21201
- 提示词与输出结果:https://github.com/google-deepmind/superhuman/tree/main/aletheia
FirstProof:将AI置于真实的数学研究场景
FirstProof是一项专门为评估AI数学研究能力而设计的实验性挑战。该挑战由多位活跃于不同数学分支的一线研究者发起,题目均来自真实的科研命题,旨在评估当前人工智能的研究潜力。
这些问题在挑战启动前从未公开证明,组织方提前将标准证明加密保存,以最大程度排除训练数据泄露的可能。最终提交的答案需由领域专家进行人工审阅,依据逻辑严密性与学术可接受度进行评判,其标准更接近论文审稿,而非自动判分。
这种设计刻意提高了门槛,旨在测试AI在陌生问题上进行长期推理与结构构造的能力。换言之,FirstProof关注的是系统是否具备参与数学研究的潜力。
这些问题于2026年2月5日发布,截止时间为太平洋时间2026年2月13日晚上11:59,解决方法在截止后于互联网上公布。
这项评估本身极其困难,能够真正理解这些问题的专家屈指可数。关键在于:Aletheia的所有解答均在没有任何人工干预的情况下生成,并在FirstProof挑战规定的时间范围内提交。

研究团队执行整体流程示意图
FirstProof的第一作者确认了这一事实。

研究团队运行了两个版本的Aletheia(两者仅在底层基础模型上有所不同),它们都由Gemini DeepThink提供支持。综合多数专家评审意见,这两个系统共同解决了10道题中的6道(第2、5、7、8、9、10题)。值得注意的是,专家们对第8题的评估并未完全一致。

Aletheia在FirstProof上的性能总结。专家评估列显示了在咨询的总专家人数中,有多少专家将解决方案评为正确。仅在P8上的评估不是一致的。
Aletheia的解题分析
两个智能体在FirstProof十道问题上的执行结果如下:

在FirstProof的10道问题中,Aletheia为其中6道题(P2、P5、P7、P8、P9、P10)生成了候选解答。在“best-of-2”的评估设置下,根据多数专家的评审意见,这6道题都被认定为在该解释框架下已正确解决。
Aletheia A与Aletheia B针对相同的六道题目都生成了候选解答。单独来看,每个智能体都至少出现过一次“假阳性”判断,但在“best-of-2”的评估机制下,它们共同为六道题目都提供了可信的解答。这一结果相比2025年12月用于解决Erdős问题的Aletheia版本,在准确率上有明显提升。
不过,P8的评估并非一致通过——7位专家中有5位给出了“正确”的评价。对于另外4道题(P1、P3、P4、P6),两个智能体都没有给出解答:要么明确输出“未找到解答”,要么在时间限制内没有返回任何结果。
研究团队认为,Aletheia具备一种“自我筛选”机制,这也是其关键设计原则之一。在将AI扩展为数学研究助手的过程中,可靠性是首要瓶颈。如果智能体频繁给出错误的“幻觉”答案,将极大地浪费人类专家用于验证结果的时间与精力,与提高研究效率和自动化的目标背道而驰。
此外,解决问题的推理成本也是非常重要的指标。

图中展示了每个候选解的推理成本,并将其表示为相对于Erdős-1051解答推理成本的倍数。
如图所示,Aletheia在所有问题上的推理成本都高于Erdős-1051问题。尤其是P7,其推理成本比此前观察到的规模高出一个数量级。研究者称,这一方面是因为Generator子智能体在生成候选解时消耗了大量计算资源,另一方面是因为需要更多轮交互才能通过Verifier子智能体的验证。
总结
数学研究包含多个环节:提出问题、建立框架、寻找关键结构、完成证明。当前系统显然还无法全面承担所有角色,但它已经开始在证明与验证环节发挥作用。
未来的研究场景或许会发生变化。人类研究者提出方向与核心思想,AI负责高强度的路径搜索与形式化验证,再由人类进行理论整合与升华。这种协作模式,正在逐渐成形。
数学长期以来被视为人类理性能力的高地。如今,AI正在这里取得实质性突破。当机器开始稳定地完成研究级证明,我们或许需要重新思考一个问题:在未来的数学论文作者名单中,AI会以什么身份出现?
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/23154
