前OpenAI研究VP挑战Transformer霸权,10亿美元融资打造持续学习AI新范式

Transformer 是当前大语言模型(LLM)发展的核心基础,但一些顶尖研究者正积极寻求替代路径。其中甚至包括 Transformer 的创造者之一、Sakana AI 联合创始人兼 CTO Llion Jones。他在 Sakana 的官方博客中直言不讳地写道:“为什么 Transformer 的这位创造者受够了 Transformer”。

前OpenAI研究VP挑战Transformer霸权,10亿美元融资打造持续学习AI新范式

“我不是说我们应该扔掉 Transformer。但就我个人而言,我正在大幅减少研究它们的时间。我明确地在寻找下一个目标。” Jones 表示,“让我们一起加大探索力度。别再纠缠于同一个地方,去寻找下一座高峰吧。”

恰在同一天,The Information 的报道揭示了一家名为 Core Automation 的新创公司,其创始人、前 OpenAI 研究副总裁 Jerry Tworek 正致力于探索这“下一座高峰”。

前OpenAI研究VP挑战Transformer霸权,10亿美元融资打造持续学习AI新范式

在 OpenAI 任职期间,Tworek 曾担任研究副总裁,负责强化学习领域,并对推理模型、编程工具和 AI 智能体的开发做出了关键贡献。

据知情人士透露,成立仅数周的 Core Automation 正寻求 5 亿至 10 亿美元的融资。报道称,Tworek 计划采用一条与 OpenAI、Anthropic 等主流厂商截然不同的技术路径。其核心目标是开发具备“持续学习”(Continual Learning)能力的模型,使其能够从现实世界的实践中即时获取知识,而这是当前主流 AI 模型尚不具备的“边练边学”能力。

目前,该创业计划仍处于早期阶段,融资规模和产品路径可能发生变化。若成功,Core Automation 或可与 Safe Superintelligence、Thinking Machines Lab 并称为探索非 Transformer 方向的“OpenAI 三子”。

事实上,Core Automation 并非孤例,它代表了一个规模虽小但日益壮大的研究群体。他们认为 AI 领域需要一场“彻底的变革”,因为当前主流技术难以在生物、医学等领域取得根本性突破,且无法根除 AI 常犯低级错误的顽疾。

Tworek 本月初离开 OpenAI,并在 X 上表示此举是为了“探索那些在 OpenAI 内部难以推进的研究方向”。

前OpenAI研究VP挑战Transformer霸权,10亿美元融资打造持续学习AI新范式

根据融资材料,Core Automation 仍会使用大型神经网络,但将重新审视模型开发的每一个环节,甚至包括训练神经网络的基础方法“梯度下降”。知情人士称,Tworek 计划开发一种对数据和计算资源需求更低的模型,通过构建全新架构来取代 Transformer,并将原本割裂的训练步骤整合为单一流程。

前OpenAI研究VP挑战Transformer霸权,10亿美元融资打造持续学习AI新范式

在追求“持续学习”的目标上,Core Automation 与由前 OpenAI 首席科学家 Ilya Sutskever 共同创立的 Safe Superintelligence 不谋而合。Sutskever 也曾表达过让模型在现实部署中不断进化的愿景。此外,从 Meta 离职的 Yann LeCun 也在探索类似方向。当然,OpenAI 和 Anthropic 等巨头也并未忽视这一领域,一些研究者认为通过对现有 Transformer 模型进行微调,也能实现类似特性,无需彻底推倒重来。

Tworek 宏大的融资目标也反映了资本市场对“新实验室”的持续热情。近期,多家尚无收入或产品的 AI 初创公司获得了巨额投资。例如,Humans& 本月以 44.8 亿美元估值完成了 4.8 亿美元种子轮融资;Mira Murati 的 Thinking Machines Lab 也在洽谈一笔 40 亿至 50 亿美元的融资。

Tworek 于 2019 年加入 OpenAI。在他的构想中,Core Automation 将围绕一个名为“Ceres”(取自罗马谷物女神及矮行星之名)的单一算法和模型展开工作,这与主流厂商将训练分为预训练、中期训练和后期微调的模式大相径庭。其目标是使模型所需的数据量比现有最先进模型少 100 倍。

模型研发成功后,公司将开发 AI 智能体来自动化生产其产品。其远景规划始于工业自动化,最终目标甚至包括建造“自我复制工厂”、研制自动生成定制设计的生物机器,以及改造地外行星的生态。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/19535

(0)
上一篇 2026年1月31日 上午11:39
下一篇 2026年1月31日 下午12:01

相关推荐

  • 硅谷AI圈中文现象深度解析:从人才流动到开源模型崛起的范式转移

    硅谷AI领域近期出现了一个引人注目的文化现象:中文正在成为顶尖AI圈层的通用语言。这一现象不仅体现在人才聚集层面,更延伸至模型开发与产业选择,反映出全球AI力量格局的深刻变化。本文将从人才结构、开源模型竞争力、产业迁移三个维度进行系统分析,揭示这一现象背后的技术逻辑与市场动因。 **一、人才结构的范式转移:中文成为AI精英的隐性门槛** 传统认知中,英语是科…

    2025年11月1日
    20900
  • 基础设施配置如何让Agent评测分数波动6%:Anthropic揭示基准测试的隐藏变量

    摘要 :Anthropic发现,Agent编程评测中的基础设施配置差异可以导致数个百分点的分数波动——有时甚至超过排行榜上顶尖模型之间的差距。这篇文章详细分析了资源配置如何影响评测结果,并给出了具体建议。 问题的发现 SWE-bench和Terminal-Bench等Agent编程基准测试被广泛用于比较前沿模型的软件工程能力——排行榜上的顶尖位置往往只相差几…

    2026年2月7日
    6500
  • 全球AI编程新纪元:中国开源大模型如何重塑西方科技产品格局

    近期,Cursor和Cognition两家美国科技公司相继发布新一代AI编程模型Composer和SWE-1.5,引发业界广泛关注。然而,这些模型在推理过程中频繁使用中文的现象,以及其技术特征与中国开源模型的惊人相似性,揭示了全球AI产业格局正在发生的深刻变革。 Cursor发布的Composer模型作为其首个自研代码模型,采用强化学习训练的大型MoE架构,…

    2025年11月1日
    17600
  • 算力定价权之争:英伟达如何重塑AI成本结构与行业生态

    近期ChatGPT Plus订阅费从20美元上调至22美元,Claude推出30美元Team档和Max档服务,AI服务集体进入价格调整周期。表面看是OpenAI、Anthropic等模型厂商的定价策略变化,但深入产业链分析会发现,真正的价格推手隐藏在算力供应链的最上游——英伟达通过GPU垄断地位,正在重新定义整个AI行业的基础成本结构。 **算力成本的结构性…

    2025年11月30日
    15800
  • 像开发软件一样造世界,Agent2World来了,把世界模型做成可运行的符号环境

    让模型真正“能行动”,往往需要一个可执行、可验证的符号世界模型(Symbolic World Model)。它并非抽象的文字描述,而是能被规划器或执行器直接调用的形式化定义,例如PDDL领域/问题,或可运行的环境代码/模拟器。一旦世界被“写成可运行的规则”,我们就能在同一套约束下进行推演、测试与复现:模型不再停留在“会说”,而是能回答“如果我这样做,会发生什…

    2026年2月2日
    18800