AI自主科研新突破:Karpathy项目引发智能体群体协作,4天完成2000+实验

AI自主科研新突破:Karpathy项目引发智能体群体协作,4天完成2000+实验

Karpathy的Autoresearch项目仅用630行Python代码,就让AI自主完成了276次实验,筛选出29项有效改进,将语言模型的训练效率提升了约11%,全程无需人类干预。

AI自主科研新突破:Karpathy项目引发智能体群体协作,4天完成2000+实验

然而,更引人注目的进展发生在此之后。全球开发者社区接手项目,将其从“单个AI做实验”升级为“群体AI协作科研”。他们构建了一个分布式协作层,让数十个智能体在不同GPU上共享成果、分工合作,在4天内运行了超过2000次实验。

AI自主科研新突破:Karpathy项目引发智能体群体协作,4天完成2000+实验

人类在检查成果时发现,AI智能体之间已自发形成了类似同行评审的协作机制。

AI“重构”科学共同体

Karpathy曾指出项目的下一步方向:

目标不是模拟一个博士生,而是模拟整个研究社区。

社区正是朝此方向推进。受SETI@home(分布式计算项目)启发,开发者在Autoresearch基础上增加了协作层,创建了Autoresearch@home,允许任何互联网用户参与协作进行人工智能与机器学习研究。

AI自主科研新突破:Karpathy项目引发智能体群体协作,4天完成2000+实验

智能体能够阅读并学习以往的实验结果,避免重复工作,并基于彼此成果持续探索。不到一周,系统从最初的13个智能体扩展到80多个,累计运行2000多次实验。智能体在运行中自发产生了角色分化:
* 实验员负责运行实验
* 验证员专门复现他人结论
* 统计员测量方差和置信度
* 元分析员提出新的研究方向

数据清晰地展现了分工效果:一个智能体在一天内专门验证他人声明,完成了188次实验;另一组智能体生成了5895条研究假设,但未运行任何实验。整个系统开始像一个分布式研究实验室般运作。

AI自主科研新突破:Karpathy项目引发智能体群体协作,4天完成2000+实验

项目发起者、Ensue创始人Christine Yip公布了十大发现,涵盖从智能体协作行为到底层训练技术的多个方面。

AI自主科研新突破:Karpathy项目引发智能体群体协作,4天完成2000+实验

核心发现包括:
* 更多训练步数优于更大批次:将批次大小减半,同时加倍训练步数,带来了性能提升。
* 简单的注意力模式效果最佳:多个智能体独立发现并验证了“3短1长”的窗口注意力模式(SSSL)是最优选择。
* 初始化调整比优化器调整更重要:仅三项与初始化相关的改动就带来了显著改善。
* 参数可学习化提升性能:将固定常数替换为可学习参数,几乎总能提升模型性能。
* 最优架构出乎意料地小:群体智能探索发现,一个12层、512维度的配置效果最佳,盲目加深网络反而适得其反。
* 许多“改进”实为噪声:专门验证的智能体发现,随机种子造成的方差与许多声称的“改进”量级相当,促使群体开始要求重复实验与多种子验证。
* 部分公认技术效果不佳:如weight tying、label smoothing等技术在该任务中导致了性能下降,这些负面结果被写入共享记忆,帮助其他智能体避免重复踩坑。
* 数据管道尚待探索:绝大多数实验聚焦于模型架构,而关于数据调度的大量假设尚未被测试,这可能蕴藏着更大的突破机会。
* 集体记忆加速发现进程:共享的实验结果使得后续智能体能直接从已知最优配置出发,显著加快了研究进程。

为达目标,智能体“各显神通”

在Autoresearch激发的另一个衍生项目Auto-discovery中,智能体在科学发现和算法优化任务上也表现出色,甚至在部分经典数学优化问题上超越了其他知名方法。

AI自主科研新突破:Karpathy项目引发智能体群体协作,4天完成2000+实验

项目发起者、华盛顿大学博士生Tu Xinming分享了智能体一些“另辟蹊径”的优化时刻。例如,在未被告知“禁止搜索”的情况下,AI直接上网搜索并从开源仓库中找到了最优解。另一次,AI通过阅读评估器源代码理解了严格约束,并专门设计了一套“容差感知优化”策略来推进任务。

AI自主科研新突破:Karpathy项目引发智能体群体协作,4天完成2000+实验

余思

Karpathy最初仅用630行代码设计了Autoresearch。他或许未曾预料,社区在几天内就将其发展成一个拥有实验、验证、评审、分工乃至“负面结果知识库”的分布式科学共同体。

这场实验中最有趣的发现,或许并非某个具体的模型架构,而是这个自主、协作的科研过程本身。

项目链接
* Autoresearch: https://github.com/karpathy/autoresearch
* Autoresearch@home: https://ensue-network.ai/autoresearch?view=strategies
* Auto-discovery: https://github.com/XinmingTu/auto-discovery

参考链接
[1] https://x.com/christinetyip/status/2032590900107346327
[2] https://x.com/TuXinming/status/2032478765033701835


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/25833

(0)
上一篇 2026年3月15日 下午2:52
下一篇 2026年3月15日 下午9:09

相关推荐

  • 斯坦福博士生提出「持续自我提升式AI」:让模型自主进化,超越人类创造者

    昨日,斯坦福大学博士生 Zitong Yang 顺利完成了其题为“持续自我提升式AI”的博士论文答辩。答辩结束后,相关视频与资料迅速公开,系统性地展示了他对未来AI发展路径的探索。针对当前AI模型存在的三大核心局限——训练后权重静态化、高质量人类数据面临枯竭、新算法发现高度依赖人力——他提出了一套明确的解决方案框架。 在答辩中,Zitong Yang 重点阐…

    2026年3月5日
    37700
  • LLM记忆管理终于不用“手把手教”了,新框架让智能体自主管理记忆系统

    不再依赖人工设计,让模型真正学会管理记忆。 来自来自加州大学圣地亚哥分校、斯坦福大学的研究人员提出了一个创新的强化学习框架—— Mem-α,用于训练LLM智能体自主管理复杂的记忆系统。 在实际应用中,仅仅依靠prompts和instructions往往不足以覆盖所有场景:模型经常会遇到不知道如何更新记忆的情况,尤其是当记忆系统像MIRIX那样变得复杂时。 不…

    2025年10月20日
    32600
  • 自我蒸馏的陷阱:为何AI“抄袭”自己思考反而损害数学推理能力?

    自我蒸馏的陷阱:为何AI“抄袭”自己思考反而损害数学推理能力? 当 AI 试图通过“抄袭”自己的思考过程来变得更高效时,它可能无意中丢掉了最宝贵的品质——承认“我可能错了”。 在人工智能领域,一种名为“自我蒸馏”(Self-Distillation)的后训练范式正迅速崛起。其核心思想极具吸引力:让模型自己充当老师,利用更丰富的上下文信息(如标准答案)来指导学…

    2026年3月30日
    19100
  • NCCLbpf:用eBPF为GPU集群通信插上安全与性能的双翼,破解AI训练可靠性难题

    关键词:NCCL、eBPF、GPU集群通信、安全扩展、性能优化 在AI训练集群中,NCCL插件导致的崩溃占故障的30%以上,而一次策略更新往往意味着整个训练任务的重启。NCCLbpf通过将eBPF的验证机制引入GPU通信库,以80-130纳秒的极低开销,实现了插件的安全执行与原子热更新,在8-GPU NVLink环境下提升AllReduce吞吐量高达27%。…

    2026年3月29日
    14400
  • GPU加速新突破!Gram Newton-Schulz算法将万亿参数MoE模型优化器时间降低40-50%

    在数值分析领域,Newton-Schulz及其相关方法已被研究多年,但大多数工作关注的是高精度计算、CPU优化或方阵输入。 近日,来自普林斯顿大学和纽约大学的四位研究者提出了Gram Newton-Schulz算法。该研究通过重构经典的Newton-Schulz方法,使其更适配GPU硬件和大规模模型训练场景。实验表明,该算法在训练万亿参数的混合专家模型时,可…

    2026年4月1日
    16000