前OpenAI研究VP挑战Transformer霸权,10亿美元融资打造持续学习AI新范式

Transformer 是当前大语言模型(LLM)发展的核心基础,但一些顶尖研究者正积极寻求替代路径。其中甚至包括 Transformer 的创造者之一、Sakana AI 联合创始人兼 CTO Llion Jones。他在 Sakana 的官方博客中直言不讳地写道:“为什么 Transformer 的这位创造者受够了 Transformer”。

前OpenAI研究VP挑战Transformer霸权,10亿美元融资打造持续学习AI新范式

“我不是说我们应该扔掉 Transformer。但就我个人而言,我正在大幅减少研究它们的时间。我明确地在寻找下一个目标。” Jones 表示,“让我们一起加大探索力度。别再纠缠于同一个地方,去寻找下一座高峰吧。”

恰在同一天,The Information 的报道揭示了一家名为 Core Automation 的新创公司,其创始人、前 OpenAI 研究副总裁 Jerry Tworek 正致力于探索这“下一座高峰”。

前OpenAI研究VP挑战Transformer霸权,10亿美元融资打造持续学习AI新范式

在 OpenAI 任职期间,Tworek 曾担任研究副总裁,负责强化学习领域,并对推理模型、编程工具和 AI 智能体的开发做出了关键贡献。

据知情人士透露,成立仅数周的 Core Automation 正寻求 5 亿至 10 亿美元的融资。报道称,Tworek 计划采用一条与 OpenAI、Anthropic 等主流厂商截然不同的技术路径。其核心目标是开发具备“持续学习”(Continual Learning)能力的模型,使其能够从现实世界的实践中即时获取知识,而这是当前主流 AI 模型尚不具备的“边练边学”能力。

目前,该创业计划仍处于早期阶段,融资规模和产品路径可能发生变化。若成功,Core Automation 或可与 Safe Superintelligence、Thinking Machines Lab 并称为探索非 Transformer 方向的“OpenAI 三子”。

事实上,Core Automation 并非孤例,它代表了一个规模虽小但日益壮大的研究群体。他们认为 AI 领域需要一场“彻底的变革”,因为当前主流技术难以在生物、医学等领域取得根本性突破,且无法根除 AI 常犯低级错误的顽疾。

Tworek 本月初离开 OpenAI,并在 X 上表示此举是为了“探索那些在 OpenAI 内部难以推进的研究方向”。

前OpenAI研究VP挑战Transformer霸权,10亿美元融资打造持续学习AI新范式

根据融资材料,Core Automation 仍会使用大型神经网络,但将重新审视模型开发的每一个环节,甚至包括训练神经网络的基础方法“梯度下降”。知情人士称,Tworek 计划开发一种对数据和计算资源需求更低的模型,通过构建全新架构来取代 Transformer,并将原本割裂的训练步骤整合为单一流程。

前OpenAI研究VP挑战Transformer霸权,10亿美元融资打造持续学习AI新范式

在追求“持续学习”的目标上,Core Automation 与由前 OpenAI 首席科学家 Ilya Sutskever 共同创立的 Safe Superintelligence 不谋而合。Sutskever 也曾表达过让模型在现实部署中不断进化的愿景。此外,从 Meta 离职的 Yann LeCun 也在探索类似方向。当然,OpenAI 和 Anthropic 等巨头也并未忽视这一领域,一些研究者认为通过对现有 Transformer 模型进行微调,也能实现类似特性,无需彻底推倒重来。

Tworek 宏大的融资目标也反映了资本市场对“新实验室”的持续热情。近期,多家尚无收入或产品的 AI 初创公司获得了巨额投资。例如,Humans& 本月以 44.8 亿美元估值完成了 4.8 亿美元种子轮融资;Mira Murati 的 Thinking Machines Lab 也在洽谈一笔 40 亿至 50 亿美元的融资。

Tworek 于 2019 年加入 OpenAI。在他的构想中,Core Automation 将围绕一个名为“Ceres”(取自罗马谷物女神及矮行星之名)的单一算法和模型展开工作,这与主流厂商将训练分为预训练、中期训练和后期微调的模式大相径庭。其目标是使模型所需的数据量比现有最先进模型少 100 倍。

模型研发成功后,公司将开发 AI 智能体来自动化生产其产品。其远景规划始于工业自动化,最终目标甚至包括建造“自我复制工厂”、研制自动生成定制设计的生物机器,以及改造地外行星的生态。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/19535

(0)
上一篇 2026年1月31日 上午11:39
下一篇 2026年1月31日 下午12:01

相关推荐

  • 英伟达发布Vera Rubin NVL72:AI推理拐点已至,算力市场将达万亿美元

    北京时间今天凌晨两点,英伟达GTC大会在加州圣何塞正式召开。英伟达联合创始人兼CEO黄仁勋在主题演讲中表示:“我们重新定义了计算,就像个人电脑革命和互联网革命一样。我们现在正处于一个全新平台变革的开端。” 黄仁勋预测,全球公司在Blackwell和Rubin系统上的支出,将在2025年至2027年间达到1万亿美元,其中60%的业务将来自超大规模云计算。这一预…

    2026年3月17日
    74500
  • MiniMax M2开源大模型深度解析:从注意力机制回归到数据工程创新

    近期,MiniMax发布的M2开源大模型在AI社区引发了广泛讨论。该模型不仅在多项基准测试中表现优异,更在香港大学AI-Trader模拟A股大赛中以20天10万本金盈利近三千元的成绩夺得第一。M2的成功并非偶然,其背后是一系列深思熟虑的技术选择与工程实践。本文将从注意力机制、数据处理流程和模型泛化能力三个维度,深入剖析M2的技术路径与创新突破。 **注意力机…

    2025年11月4日
    51500
  • 从萨默斯辞职审视OpenAI治理危机:精英光环褪色与AI伦理的深层悖论

    近日,OpenAI董事会成员、前美国财政部长劳伦斯·萨默斯因与性犯罪者杰弗里·爱泼斯坦的不当通信被曝光而被迫辞职,这一事件不仅终结了萨默斯在硅谷与学术界的权力生涯,更在OpenAI完成商业化转型的关键节点,揭示了其精英治理结构的脆弱性。随着美国众议院监督委员会公开近20000页文件,萨默斯向爱泼斯坦寻求“浪漫建议”的邮件细节浮出水面,其中涉及对女性的物化言论…

    2025年11月20日
    36900
  • AI Ping:大模型API的智能导航与评测平台,终结选型混沌时代

    衡宇 发自 凹非寺 比面对大模型黑盒更让人抓瞎的事情,就是要去选既靠谱、性价比又高的API服务。 这几乎是每一个涉足AI应用开发的团队都会经历的至暗时刻。 同一个模型架构在不同的供应商手里,不仅价格上有出入,延迟、稳定性、吞吐量等用户关心的指标,波动幅度巨大。 在API调用动辄几十万、上百万token的时代,API选型居然变成了一件靠经验反复试错的事儿。 这…

    2026年2月2日
    55100
  • ROOT优化器:华为诺亚方舟实验室如何为十亿级大模型训练构建稳健的矩阵感知引擎

    在大模型训练领域,优化器的选择直接决定了模型能否高效、稳定地收敛。随着参数规模突破十亿甚至千亿级别,传统优化器在数值稳定性与训练效率之间的权衡变得日益尖锐。华为诺亚方舟实验室最新发布的ROOT(Robust Orthogonalized Optimizer)优化器,正是针对这一核心矛盾提出的系统性解决方案。 要深入理解ROOT的价值,必须首先回顾大模型优化器…

    2025年11月27日
    33900