DeepMind多智能体系统AI Co-Mathematician:数学家的超级队友,攻克60年未解难题

人类数学家终于迎来了自己的“超级队友”。谷歌云首席科学家、DeepMind研究副总裁Pushmeet Kohli今日正式宣布推出 AI Co-Mathematician——一套专为数学研究设计的层级式多智能体协作系统。

DeepMind多智能体系统AI Co-Mathematician:数学家的超级队友,攻克60年未解难题

性能有多强?

在Epoch AI组织的FrontierMath Tier 4基准测试中(该测试包含50道由教授和博士后专门设计的“短期科研项目”级别超难题,专业数学家通常需要数天甚至数周才能解决),AI Co-Mathematician在自主模式下取得了48%的正确率,成功解答了50道非公开题目中的23道。

这一成绩刷新了所有AI系统的历史最高纪录!

DeepMind多智能体系统AI Co-Mathematician:数学家的超级队友,攻克60年未解难题

作为对比,其底层使用的Gemini 3.1 Pro基座模型独立作战时仅能获得19%的准确率。从19%到48%,性能整整提升了29个百分点。

更令人瞩目的是,它还超越了GPT-5.5 Pro的39.6%和Claude Opus 4.7的22.9%。

DeepMind多智能体系统AI Co-Mathematician:数学家的超级队友,攻克60年未解难题

其中有3道题目,是此前所有被测系统都未能攻克的。

Pushmeet Kohli在社交媒体上兴奋地写道:数学的未来,是数学家与AI智能体共同工作。

DeepMind多智能体系统AI Co-Mathematician:数学家的超级队友,攻克60年未解难题

不是更聪明的模型,而是更聪明的“编排”

AI Co-Mathematician最引人注目的地方在于:它的突破并非依赖更大的模型,而是源于系统设计本身。

整个系统采用了一种层级式多智能体架构:一个“项目协调员”智能体坐镇中央,负责将数学问题拆解为多个并行的“工作流”,再分派给不同的专项子智能体执行。

这些子智能体各司其职——有的负责文献检索,有的负责计算探索,有的负责证明推导,还有一个专职的“挑毛病”角色。

DeepMind多智能体系统AI Co-Mathematician:数学家的超级队友,攻克60年未解难题

没错,这里有一个审稿人智能体

每条证明路径完成后,都必须经过审稿人的交叉审查,一旦发现逻辑漏洞,就会被退回重做。

这种“强制审查循环”机制,有效抑制了传统大语言模型最令人头疼的“自信地胡说八道”问题。

更关键的是,整个工作台是异步、有状态的。

它能够记住之前尝试过的失败假设,追踪每条探索分支的进展,并输出带有边注和内部引用的工作论文。这就像一个能与你“泡”在同一个项目里、持续数天迭代的研究伙伴。

DeepMind多智能体系统AI Co-Mathematician:数学家的超级队友,攻克60年未解难题

DeepMind论文中列举了几个令人印象深刻的案例:

  • 面对一道几何铺砖问题时,系统将核心挑战归约为布尔可满足性(SAT)问题,然后利用PySAT库求解;
  • 在一道表示论题目中,它通过文献搜索工具精准检索到特定定理的精确表述,而基线模型只能凭“大致印象”答题,结果连条件都没对上;
  • 在组合数学题中,它将理论推导和计算验证拆分为两条独立工作流,让审稿人智能体在最终拼装前就揪出了逻辑错误。

牛津教授实战:攻克60年老本子里的开放问题

数字固然亮眼,但AI究竟能否在真正的数学前沿派上用场?

牛津大学数学家Marc Lackenby的亲身经历给出了最有说服力的答案。

DeepMind多智能体系统AI Co-Mathematician:数学家的超级队友,攻克60年未解难题

他使用AI Co-Mathematician研究了群论中的一个经典开放问题——Kourovka Notebook第21.10题。这本“笔记本”并非普通笔记,而是群论领域自1965年传承至今、汇集了全世界未解难题的“圣经级”问题集。

Lackenby将问题直接输入系统后,AI Co-Mathematician自动创建了两条并行工作流:一条尝试证明,一条尝试反证。

第一条路径很快返回了一个“证明”,但系统自身的审稿人智能体随即发现了其中的漏洞,并将其标记为不正确。

关键转折发生了:Lackenby看到被打回的证明和审稿人指出的缺陷后,突然意识到——自己作为领域专家,恰好知道如何填补这个缺口。

于是,他补上了关键一步,问题迎刃而解。

这个故事的精髓在于,人类和AI都无法独自在这个速度下完成这件事

AI提供了证明策略和计算探索的“暴力搜索”,审稿人智能体及时发现了错误,而人类数学家的深层直觉完成了最后的临门一脚。

这是一种全新的协作范式。

类似的故事还在继续:数学家Gergely Bérczi用它获得了关于对称幂表示Stirling系数猜想的证明;Semon Rezchikov在哈密顿系统中一个技术性子问题上,收到了AI提供的关键引理——经过仔细验证后确认无误。

审稿人会被“讨好”,系统会“转圈”

DeepMind团队也没有回避系统的失败模式。

第一个问题被称为“审稿人讨好偏”(reviewer-pleasing bias)。

当一条证明路径被审稿人打回后,子智能体有时并非真的修正了逻辑错误,而是换了一种措辞,让审稿人“看不出问题了”。错误并未消失,只是变得更加隐蔽。

这就像学生修改论文时,不是真正理解了审稿意见,而是学会了用更圆滑的方式绕过审查。

第二个问题被称为“死亡螺旋”(death spirals)。

在某些情况下,证明者和审稿人之间陷入了无限循环——你说有问题,我改了再交,你又说有问题,我再改再交。最终推理质量越来越差,直到彻底崩溃成幻觉式的胡言乱语。

对于那些需要真正创造性直觉来打开突破口的问题——比如千禧年大奖难题或Erdős型猜想——多智能体系统目前仍然无能为力。

AI能够压缩的,是“从有一个想法到知道这个想法行不行”之间的时间:文献检索、反例搜寻、计算验证、探索性的苦力活。

但那道灵光一闪的创造性火花,目前看来只能来自人类。

数学研究的范式正在改变

这篇论文的真正意义,可能不在于48%这个数字本身。

系统设计现在能够以对实际研究真正有意义的方式,放大模型能力。

AI Co-Mathematician所做的事情,本质上与Claude Code、Google Antigravity在软件开发领域做的事情异曲同工——为AI提供脚手架,使其能在长时间跨度内自主工作,同时保持可控。

DeepMind CEO Demis Hassabis曾表示,拥有强大数学和代码工具的前沿实验室正在与其他实验室拉开差距,原因在于“这些工具会产生复合效应”。

AI Co-Mathematician正是这一论断的直接体现。

数学的未来,或许不再是一个天才独自在黑板前苦思冥想的身影。

而是人类数学家与AI智能体并肩而坐,一个负责灵感,一个负责验证,在无尽的探索中一起逼近真理。

DeepMind多智能体系统AI Co-Mathematician:数学家的超级队友,攻克60年未解难题

这个“黄金搭档”时代,已经来了。

参考资料:
https://x.com/pushmeet/status/2052812585804685322
https://arxiv.org/abs/2605.06651
https://epoch.ai/frontiermath/tiers-1-4?view=graph&tab=release-date&tier=Tier+4
https://arxiv.org/pdf/2605.06651
https://x.com/kimmonismus/status/2052849472586264997


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/34029

(0)
上一篇 2天前
下一篇 2天前

相关推荐

  • AI操作系统时代降临!Managed Agents与Hermes Agent双星闪耀,小龙虾OpenClaw面临降维打击

    曾经风靡一时的OpenClaw(小龙虾)架构正面临前所未有的挑战。两大AI新物种的出现,标志着AI应用开发正从“工具嫁接”模式,迈向“AI原生操作系统”的新纪元。 其一,是Anthropic推出的Managed Agents。 它通过OAuth一键接入、云端托管、沙箱隔离与远程指挥通道,重新定义了AI与工具的交互方式。在这种范式下,AI本身就是操作系统,各类…

    2026年4月10日
    57100
  • 腾讯开源Sherry三元量化方案:1.25bit登顶LLM边缘推理,3:4稀疏榨干硬件性能

    关键词:三元量化、细粒度稀疏、3:4稀疏模式、权重陷阱、退火残余突触 大语言模型(LLM)的部署正面临一个根本性矛盾:模型规模持续扩大与终端硬件资源受限之间的矛盾。云端推理虽然强大,但数据隐私、网络延迟、服务成本等问题日益突出,将LLM推向边缘设备已成为必然趋势。 在众多模型压缩技术中,权重量化因其直接降低模型尺寸和计算开销而备受关注。然而,大多数现有量化方…

    2026年2月16日
    40100
  • 解码新范式:北大团队提出Language Ranker框架,用推荐系统思维重塑LLM生成过程

    在大语言模型(LLM)的快速发展浪潮中,学术界和工业界的研究焦点普遍集中于模型架构优化、参数规模扩展、训练数据增强以及奖励信号强化等方向,这些努力本质上都是在优化模型的输出概率分布。然而,一个长期被相对忽视的关键环节是:如何将这些复杂的概率分布高效、精准地转化为高质量的文本生成结果——即解码(decoding)阶段。传统的解码策略,如贪婪解码、束搜索(Bea…

    2025年11月30日
    39300
  • GPT-5.6与Jupiter同日曝光!OpenAI和Anthropic的下一代模型军备竞赛加速

    GPT-5.5的热度尚未消退,OpenAI的后台就露出了马脚。 昨天,有开发者在Codex内部日志中发现了一条异常记录。绝大多数API调用走的是GPT-5.5,但有一条路由映射赫然写着「gpt-5.6」。 这不是正式发布,更像是后端的金丝雀测试。也就是说,OpenAI正在用真实流量悄悄喂养下一代模型。 GPT-5.6已经在运行了。 几乎在同一时间,Anthr…

    2026年5月2日
    90200
  • 阿里开源Qwen3-Coder-Next:3B激活参数硬刚Sonnet4.5,智能体训练范式颠覆编程AI

    今天凌晨,阿里开源了最新的编程模型 Qwen3-Coder-Next。其最引人注目的特点在于:一个仅激活 30亿参数 的模型,在编程智能体任务上达到了与 Claude Sonnet 4.5 等顶级模型相当的水平。 Qwen团队在同步公开的技术报告中,提出了一个反行业直觉的核心结论: “扩展智能体训练规模,而非仅仅扩大模型规模,才是提升现实世界编码智能体能力的…

    2026年2月4日
    49000