世界模型:AI领域的百亿资本赌局,两条研究脉络的终极交汇

 

世界模型”这个词,想必你在许多场合都已经听过。它有时出现在视频生成领域,有时又出现在具身智能领域;其含义甚至有所差异,看起来像是完全不同的概念。

为何会出现这种分歧?答案藏在这个词的历史里。

近日,MoE Capital 的 Henry Yin 与 Naomi Xia 撰写了一篇深度博客,系统梳理了“世界模型”这一概念背后两条长达数十年、各自独立演进的研究脉络:一条是强化学习社区从 1990 年代便开始探索的“让智能体在想象中做梦”,另一条是计算机视觉社区从海量人类视频中学习物理知识的“从观看中学习”。直到 2024 至 2025 年间,这两条线索才真正交汇,孕育出我们今天所说的“视频世界模型”。

世界模型:AI领域的百亿资本赌局,两条研究脉络的终极交汇

文章还深度拆解了世界模型当前的真实能力边界:从已在生产环境落地的自动驾驶仿真,到前景可期的机器人策略评估,再到尚未得到充分验证的直接机器人控制。作者给出了一份难得清醒的技术现状判断,并坦言整个机器人 AI 领域的成熟度远比 100 亿美元的融资规模所呈现的更加早期。

与此同时,文章也深入剖析了这场资本盛宴背后的战略格局:NVIDIA 正通过全栈开源构建物理 AI 时代的“CUDA 护城河”;Yann LeCun 押注完全绕开像素预测的 JEPA 架构;而 Physical Intelligence 的最新旗舰模型,已悄然在内部集成了世界模型组件。两种路线的边界,正在加速模糊。

机器之心编译了这篇文章,以飨读者。

世界模型:AI领域的百亿资本赌局,两条研究脉络的终极交汇

  • 原文标题:The Model That Dreams the World(梦见世界的模型)
  • 博客链接:https://moe-capital.com/blog-home/the-model-that-dreams-the-world

1. AI 领域最被滥用的词

让我们先看看世界模型能做什么。

一个机器人从未见过鞋带,也从没有人远程操控着它完成解开鞋带的动作。但这个机器人俯下身去,抓住鞋带,将其抽出。它成功了——因为它经过了一个模型的训练,这个模型观看了数千小时人类双手操作各种物品的视频,学会了物体在被拉、被扭、被推时的运动规律,并在动手之前就能预判接下来会发生什么。这个机器人在自己的想象中反复练习,然后才触碰现实。

这就是世界模型的承诺:一个对物理世界的理解深入到足以预测下一步会发生什么、并据此采取行动的模型。不是用文字描述世界的语言模型,亦非生成画面的视频生成器,而是一个真正理解事物运作方式的模型。

过去 18 个月,超过 100 亿美元涌入了这一概念。Yann LeCun 离开 Meta 去构建这样的模型;Danijar Hafner(其 Dreamer 系列是基于模型的强化学习领域最具影响力的工作)也离开了 DeepMind,转而将其商业化;NVIDIA 开源了一整套相关系统;OpenAI 关闭了 Sora,将此次关闭定性为向“机器人世界仿真”的转型,而就在三周后,这个团队的负责人也离开了公司。

世界模型:AI领域的百亿资本赌局,两条研究脉络的终极交汇

这些都被叫做世界模型,但并不是一回事

然而,大多数被冠以“世界模型”之名的东西根本不是真正的世界模型。这个术语如今涵盖了视频生成器、强化学习的梦境机器、抽象表示学习器以及动作预测基础模型。两条独立的研究脉络近期汇聚,共同孕育了我们今日所称的“视频世界模型”。这次汇聚是如何发生的,其结果是否真正奏效——这正是本文要探讨的问题。

为何偏偏是现在?两件事同时发生。

第一,交互式视频模型自 2024 年起便已存在(如 Genie、GameNGen),但彼时仅是狭窄的原型。到了 2025 年,两项突破(AR-DiT 与 Self Forcing)使得将通用的高质量视频基础模型改造成既具交互性又能实时运行成为可能。这让视频世界模型从研究蜕变为潜在的实用基础设施。

第二,机器人领域历来面临数据匮乏的困境,而随着行业开始训练基础模型,这种饥渴感比以往放大了几个数量级。当前最优秀的机器人基础模型在约 1 万小时的远程操控数据上训练,但远程操控成本高、采集缓慢、多样性有限。世界模型提供了另一条路:先在已有的数百万小时人类视频上做预训练,再用少量机器人数据做微调。

不过,有必要保持清醒。整个机器人 AI 领域的成熟度远比融资规模所呈现的要低得多。当前大多数生产部署依赖的是视觉-语言-动作模型(VLA),而非纯粹的世界模型,不过连领先的 VLA,Physical Intelligence 的 Pi-0.7,也已开始整合一个小型世界模型用于子目标规划。

世界模型在特定场景下展现了强劲的成果——DreamDojo 实现了近乎完美的策略评估,DreamGen 实现了从极少数据到泛化的跨越;但对所有方法来说,通用操作任务仍是一道尚未攻克的难题。

2. 两条线索的交汇

我们今日所称的“视频世界模型”,脱胎于两条平行发展了数十年、最终在 2024 至 2025 年间交汇的独立研究脉络。

线索 A:学会做梦(强化学习世界模型,1990—2025)

“智能体应该构建一个内部环境模型”这一理念,早于深度学习本身。Kenneth Craik 在 1943 年便在《解释的本质》中提出,人类在脑海中携带着现实的“小型模型”,以此预见即将发生的事。1990 年,Jürgen Schmidhuber 发表了《让世界可微》,将这一概念形式化用于神经网络:智能体应学习一个可微的环境模型,并以此规划行动。这一想法此后沉寂了近三十年。

2018 年,David Ha 和 Schmidhuber 以一篇题为《World Models》的论文和一个交互式网站 worldmodels.github.io 将其重新唤醒,让你能亲眼看到 AI 智能体在做梦。

世界模型:AI领域的百亿资本赌局,两条研究脉络的终极交汇

左侧:真实的赛车环境。右侧:智能体对其的梦境。模糊之处正是关键——那是世界模型所想象的画面。

世界模型:AI领域的百亿资本赌局,两条研究脉络的终极交汇

Ha & Schmidhuber 的 V+M+C 架构(2018 年)。在梦境模式(右图)中,环境处于断开状态。智能体完全在其自身想象中进行实践。

该架构分为三个模块:一个 VAE(变分自编码器)将像素压缩为潜在向量;一个 MDN-RNN 在该潜在空间中以概率分布的形式预测动态;以及一个完全在想象中的展开过程中训练出来的微型控制器。这个智能体在自己的梦境中训练,然后被部署到现实中,而且成功了——在 Car Racing 和 VizDoom 上得到了验证,概念已被证实。

Danijar Hafner 随后用六年时间在相同理念的基础上,以不同的架构持续深耕。他的 RSSM 架构(PlaNet,2019)将确定性记忆与随机不确定性相结合,解决了一个根本性的表示问题。Dreamer 系列从简单的连续控制(V1,2020)扩展到人类水平的 Atari(V2,2021),再到以单一超参数集涵盖 150 余个基准测试,包括在 Minecraft 中从零开始挖取钻石(V3,发表于 2025 年的《Nature》)。Dreamer 4(2025 年底)用 Transformer 替换了循环骨干,速度提升了 25 倍。DayDreamer(2022)将其落地到真实机器人上:一个四足机器人仅用一小时便从零学会了行走。

值得一提的是,DeepMind 的 MuZero(2020)另辟蹊径:它学习的世界模型只预测奖励和价值,从不重建观测结果。它仅对决策相关的内容建模,在从未生成单帧像素的情况下,征服了围棋、国际象棋和 Atari。这与 Dreamer 将观测重建作为训练信号的哲学截然不同,但核心理念如出一辙:想象可能的未来,选择最优行动。

世界模型:AI领域的百亿资本赌局,两条研究脉络的终极交汇

DreamerV3 从零开始在《我的世界》里收集钻石——无任何示范,无需奖励塑造。

世界模型:AI领域的百亿资本赌局,两条研究脉络的终极交汇

DayDreamer 的四足机器人仅通过一小时的现实世界互动,便学会了行走。

这条研究路径的正确之处在于其核心理念:学习环境动力学、在想象中预演未来、从虚拟推演中训练策略以替代昂贵的真实世界交互、动作条件化,以及样本效率。这些基础概念已被当今所有视频世界模型所继承。

然而,它无法做到的是跨环境泛化。Dreamer 智能体能在单个 Atari 游戏上达到人类水平,但若要学习下一个游戏,必须从头开始。这些模型的体量极小(百万级参数),它们所生成的“梦境”对人类而言是无法解读的抽象向量,并且需要数千次特定任务的训练迭代。理念虽然正确,但规模却是错误的。


线索 B:从观看中学习(2016—2025)

与此同时,另一条研究脉络正默默地从视频中汲取知识。它经历了一系列阶段性的演进,每个阶段都让视频对机器人学习更具价值。

第一阶段:用视频预测来规划(2016—2018)

Oh 等人(2015)展示了在 Atari 游戏中的动作条件视频预测。Finn 等人(2016)在伯克利将其应用于真实机器人:他们训练一个模型来预测执行某个动作后摄像头将捕捉到的画面,然后通过选择预测未来状态最接近目标的动作来进行规划。这种方法对简单的推物任务有效,但预测在几帧之后便迅速退化——画面变得模糊,时间跨度太短,无法应对复杂的操作。

第二阶段:从人类视频中学习表示(2020—2022)

一个关键的认知转变出现了。与其直接预测视频,不如利用人类视频来学习可迁移到机器人任务的视觉表示。R3M(Nair 等,2022)是这一阶段的突破性成果:一个在 Ego4D 数据集上预训练的视觉编码器。Ego4D 包含数千小时以第一人称视角拍摄的烹饪、清洁和物体操作视频。该编码器学会了将摄像头图像压缩为紧凑向量,捕捉物体身份、空间关系和抓取相关特征,同时滤除墙壁颜色和阴影等无关细节。使用 R3M 特征的 Franka 机械臂仅凭 20 次演示就学会了操作任务,远少于未进行预训练时所需的数量。

大约在同一时期,OpenAI 的 VPT(2022)表明,互联网规模的视频预训练对学习行动同样有效:一个在 7 万小时 Minecraft YouTube 游戏视频上预训练的模型,仅需少量演示便能微调成能干的智能体。这是首个证明海量无标签视频能够引导出复杂序列任务中具有能力行为的系统。

EgoMimic(Kareer 等,ICRA 2025)将这一思路推向了更远:它不再仅仅使用人类视频来学习表示,而是将第一人称人类视频作为真实的演示数据,同时在人类和机器人数据上联合训练一个统一的策略。人类姿态数据将任务性能提升了 34% 到 228%,并实现了对新物体和新场景的泛化。

但这些方法也有其天花板。更好的表示和更多的演示数据都有帮助,但人类视频始终只是策略的训练数据,而非一个可以反复练习的仿真器。

第三阶段:大规模视频生成(2022—2024)

质量的飞跃来自扩散模型在视频领域的应用:Meta 的 Make-A-Video(2022)、谷歌的 Imagen Video(2022)及其后继者。扩散 Transformer 能够大规模生成高质量、时间连贯的视频。

Sora(OpenAI,2024 年 2 月)是一个转折点。在海量互联网视频上训练后,它生成的画面似乎遵循物理规律:物体落下,光线散射,摄像机追踪栩栩如生。谷歌的 Veo 随后以旗鼓相当的质量跟进。OpenAI 将 Sora 定义为“世界仿真器”。

但 Sora 不具有交互性。它使用双向注意力机制:所有帧同时看到所有其他帧。你无法在生成过程中注入动作。它是一部电影,不是一个游戏。

这条完整脉络的贡献在于:证明了人类视频包含可迁移的物理知识(R3M、VPT),实现了大规模逼真生成(Sora、Veo),以及互联网规模数据带来的视觉多样性。

它在融合之前无法做到的是:实时响应动作。它无法支持机器人所需的闭环:行动、看到结果、做出反应。它无法生成以特定动作为条件的视频,而仅仅是看起来合理的视频。


融合(2024—2025)

两个社区各自拥有对方所缺失的东西。强化学习社区有动作条件化,但缺乏泛化能力;视频社区有规模和真实感,但没有交互性。2024 年至 2026 年间,一系列工作弥合了这道鸿沟:

Genie(DeepMind,2024—2025)引入了潜在动作模型:一种从无标签视频中学习交互式环境的方法。模型观察两个连续帧,将“发生了什么变化”压缩成一个小向量,并在无需任何人标注动作的情况下发现动作空间。Genie 1(2024 年 2 月)是一个 160×90 分辨率、1 帧每秒的概念验证。Genie 2(2024 年 12 月)扩展到逼真的 720p,连贯性可维持 10 到 60 秒。Genie 3(2025 年 8 月)达到 720p 下 24 帧每秒,连贯性持续数分钟,但它生成的是 2D 帧而非 3D 几何体,运行成本约为每小时 100 美元。

UniSim(Sherry Yang 等,ICLR 2024 杰出论文奖)走了相反的路:它在视频世界模型内部完整训练了一个强化学习策略,然后以 81% 的成功率迁移到真实机器人上。更早的工作(SimPLe,2020)已在 Atari 的学习视频模型内训练过强化学习,但 UniSim 是首个使用高质量视频扩散模型并证明其能零样本迁移到现实机器人的系统。

Xun Huang 团队的两项技术突破扫除了剩余障碍。AR-DiT / CausVid(CVPR 2025)将视频扩散模型改造为自回归和因果的形式——这是实现交互性的前提:不再同时生成所有帧,而是以当前动作和过去帧为条件,逐帧依次生成。Self Forcing(NeurIPS 2025)随后解决了速度问题,将 35 步去噪压缩到 4 步,首次为通用视频模型实现了实时交互生成。

DreamGen(NVIDIA,2025 年 5 月)证明视频世界模型可以用极少的真实数据解锁机器人的泛化能力。该方法如下:在少量真实机器人视频(包括腕部摄像头拍摄的画面)上微调视频生成模型,再用语言指令提示它生成机器人执行从未做过的任务的合成视频。逆动力学模型从这些合成视频中提取电机指令,无需远程操控便能生成训练数据。一台仿人机器人仅凭一次抓放演示,便在未见过的环境中完成了 22 种新行为。这是融合能产生切实机器人价值的首个有力证据。

最终集大成者:DreamDojo 与 DreamZero(NVIDIA,2026 年 2 月)。

  • DreamDojo:一个在 44,711 小时人类第一视角视频上预训练的视频基础模型,通过学习到的潜在动作空间实现动作条件化,经 Self Forcing 蒸馏后达到实时运行,能够以皮尔逊相关系数 r=0.995 评估机器人策略与真实世界结果的一致性。
  • DreamZero 更进一步,在单次前向传播中联合预测未来视频和机器人电机动作。

世界模型:AI领域的百亿资本赌局,两条研究脉络的终极交汇

自 1990 年代和 2010 年代起并行发展的两条研究传统,于 2024-2025 年左右开始融合。强化学习传统(蓝色)带来了行动条件化与梦境机制,视频生成传统(紫色)则贡献了照片级生成能力与互联网规模的数据支持。

强化学习社区带来了动作条件化和“做梦”的概念;视频社区带来了逼真生成和互联网规模的数据。这个结果在架构上师承于视频生成,在精神上则传承自强化学习世界模型。


那么,一个世界模型究竟需要什么?

并非所有视频模型都是世界模型。曾共同创作了多个此类系统所用自回归扩散架构的 Xun Huang,提出了五条将世界模型与视频生成器区分开来的属性:

  • 因果性:时间只向前流动。双向视频生成违反了这一点,这是硬性约束。
  • 交互性:实时响应动作。没有这一点,它只是一部电影,而非仿真。这是硬性约束。
  • 持久性:在较长时间内保持连贯。当前大多数模型能维持数秒;Genie 3 能达到数分钟;能稳定维持数小时的系统尚不存在。
  • 实时性:速度快到足以满足应用需求。当前最先进水平:10—30 帧每秒。
  • 物理准确性:遵守真实世界的物理规律。这是最难实现、也最具争议的属性。

世界模型:AI领域的百亿资本赌局,两条研究脉络的终极交汇

视频生成技术(左侧图示)会一次性输出所有画面帧——视觉效果出色,但缺乏交互能力。相比之下,视频世界模型(右侧图示)采用逐帧生成的方式,每一帧的输出都基于具体的动作指令。前者好比一部制作精良的电影,后者则更像一个可互动的电子游戏。

因果关系和交互性是二元的,不具备这两点,就不能称之为世界模型。而其余的三个属性,则表现为连续的频谱特征。

世界模型:AI领域的百亿资本赌局,两条研究脉络的终极交汇

各大系统在五大属性维度上的对比:因果关系与交互性是不可妥协的硬性约束,其余三个属性则属于可量化的频谱范畴。

  1. 世界模型的实际应用场景

各类用例的成熟度排序(从最成熟到最具前瞻性)

自动驾驶仿真领域是当前最成熟的应用方向。Wayve(其GAIA世界模型,在D轮融资中估值12亿美元)和Waymo等公司,早已利用学习型世界模型来生成多样化的驾驶场景,用于策略测试。其核心评判标准是:能否合成出逼真且多样的驾驶场景,从而对自动驾驶策略进行压力测试,以发现边缘案例?这并不需要100%的物理精度,但要求视觉和行为具有足够的真实感,足以触发极端情况。这一应用已在生产环境中得到验证。

娱乐与游戏紧随其后,或许也是目前演示效果最为直观的领域。Decart的Oasis是一款完全由世界模型以20帧/秒的速率实时生成的、类《我的世界》的可玩游戏,目前已开放试玩。Genie 3能以24帧/秒、720p的分辨率生成可供探索的环境。GameNGen则能够在神经网络上以20帧/秒运行《毁灭战士》。马斯克的xAI已宣布计划在2026年底前推出基于世界模型的电子游戏(目前尚无演示)。游戏对物理精度的要求相对较低:只要体验足够吸引人,玩家通常能容忍一定程度的不真实感。但服务成本依然高昂:Genie 3的运营成本约为每小时100美元。

世界模型:AI领域的百亿资本赌局,两条研究脉络的终极交汇

完全运行在神经网络上的《毁灭战士》,帧率超过20 FPS(GameNGen)。

世界模型:AI领域的百亿资本赌局,两条研究脉络的终极交汇

Genie 3环境能够以24 FPS、720p的分辨率实现实时导航。

策略评估是机器人领域近期最清晰的价值体现。DreamDojo实现了其预测与真实世界策略成功率之间r=0.995的皮尔逊相关系数。在实际操作中,这意味着你可以在世界模型内部对20个候选策略进行排名,而无需进行20次昂贵的真实世界试验,且排名结果与现实几乎完全吻合。这相当于将世界模型变成了一个测试环境——机器人行为的单元测试。

合成训练数据生成前景可期,但边际价值尚不明确。DreamGen(NVIDIA,2025)展示了一台仿人机器人,仅凭一次远程操控演示,在视频世界模型生成的合成数据辅助下,便在从未见过的环境中完成了22种新行为。然而,即便是构建这些系统的研究人员也承认,这种改进并不显著:虽有提升,但远未达到该领域所期望的飞跃。问题在于,合成视频数据所提供的信号,其价值是否真的超越了更多远程操控数据或更优数据增强所能带来的收益。

样本高效学习在受控环境中已得到验证。DayDreamer(2022)展示了一个四足机器人,仅通过一小时的真实世界交互就从零学会了行走,这是因为Dreamer世界模型能够在每次真实尝试之间,模拟出数千次练习。然而,这一点尚未在生产环境中得到大规模验证。

直接机器人控制是最为大胆的主张,也是验证最不充分的领域。DreamZero在单次前向传播中联合预测未来视频和电机动作,并声称相比VLA基准有2倍的泛化提升。但这仅是一篇论文,且来自构建该系统的团队本身,尚无独立的复现结果。与此同时,VLA正在快速迭代:Pi-0.5(2025年9月)能泛化到未见过的家庭环境,Pi-0.6(2025年11月)加入了基于强化学习的自我改进,Pi-0.7(2026年4月)通过组合所学技能来解决新任务。几乎每隔几个月就有一个新版本,能力持续提升。纯VLA方法更简洁,目前也更经过实战检验,但正如我们将看到的,“VLA”和“世界模型”之间的界限正在开始模糊。

更宏观的图景:机器人AI比表象上更早期

一个诚实的框架并非“VLA有效,世界模型无效”,而是整个机器人AI领域,比其100亿美元的融资规模所呈现的,要更加早期。导航和受限的仓库拣选任务可以可靠运行。烹饪演示在受控实验室中有效,需要数十次特定任务的演示(ALOHA/Sunday以50次演示在炒虾任务上达到90%成功率),但每道新菜都需要新的演示。无论采用何种方法,通用家庭操作、家具组装以及需要丰富接触感的灵巧操作任务,对所有人来说都仍是未解难题。

更深层次的问题横亘于VLA和世界模型之间。迁移几乎从未被系统验证,永远不应被想当然地假设。两种方法都只依赖视觉,缺失了触觉、力反馈和本体感觉,而这些对操作至关重要。标准训练数据集(如Open X-Embodiment)存在严重的质量和多样性问题。仿真基准接近饱和,而真实世界的零样本性能则远远落后。

与此同时,VLA方法并未停步。Physical Intelligence的Pi-0.7(2026年4月)展示了组合泛化能力,能将不同任务的技能组合起来解决新问题。例如,它能操作一个从未见过的空气炸锅,方法是融合相关训练经验的碎片。值得注意的是,Pi-0.7本身也是混合体:它依赖一个轻量级世界模型(基于BAGEL图像生成骨干)生成子目标图像,以规划多阶段任务。即便是当今领先的VLA,也整合了一个世界模型组件。两种方法并非真正在竞争——它们正在融合。

问题不是哪种方法在赢。而是任何一种方法是否已经足够接近通用操作,使得扩大规模就能完成剩下的路程。世界模型社区的具体押注是:对于最难的剩余任务,理解动力学(通过视频预测)将至关重要,因为单靠从演示中进行模式匹配是不够的。这个押注看起来有理,只是回报的时间线尚不确定。

  1. 百亿美元的赌注

过去18个月,超过100亿美元流入了世界模型和机器人AI公司。资本的走向告诉你行业真正所处的位置,而非论文所描绘的应有位置。

世界模型:AI领域的百亿资本赌局,两条研究脉络的终极交汇

超百亿美元的世界模型格局。气泡大小代表总融资额。紫色:世界模型公司。蓝色框线:平台类企业。

资金分布在四个层次。

  • 纯世界模型公司,构建仿真器本身(AMI Labs 10.3亿美元、World Labs 12.3亿美元、Runway 8.6亿美元以上、Rhoda 4.5亿美元、Decart 1.53亿美元、Embo 1亿美元以上);
  • 将世界模型作为组件的机器人基础模型公司(Skild 18.3亿美元、Physical Intelligence 11亿美元以上、Figure 20亿美元以上、Mind Robotics 6.15亿美元);
  • 构建并开源基础设施的平台(NVIDIA、Google DeepMind);
  • 大型科技公司的转型(OpenAI后Sora时代的机器人业务、特斯拉、xAI)。

一个值得关注的规律:使用世界模型的公司比构建世界模型的公司融资更多。这要么意味着世界模型层相对于其重要性被低估了,要么意味着最大的机器人公司将在内部自建这一能力。1X Technologies已经这么做了。

NVIDIA:那头800磅的大猩猩

这一领域最重要的战略动向并非来自某家初创公司,而是NVIDIA——它正在构建完整的物理AI技术栈,并将其全部开源。

世界模型:AI领域的百亿资本赌局,两条研究脉络的终极交汇

英伟达的物理AI技术栈:每个层级均以Apache 2.0协议开源。但DreamZero仅能在Blackwell GB200硬件上实现实时运行。CUDA开发范式被应用于机器人领域。

这个技术栈从Cosmos Predict 2.5(视频基础模型,140亿参数,2亿视频片段)开始,经由DreamDojo(动作条件世界模型,4.4万小时人类视频,策略评估r=0.995),再到DreamZero(视频与动作联合预测,在未见任务上零样本泛化),经过EgoScale(缩放定律:人类视频时长与机器人性能之间R²=0.9983),直至GR00T N2(产品化的机器人大脑,计划于2026年底推出)。每一层均以Apache 2.0许可证开源。

物理 AI 的「CUDA」策略:软件免费,硬件赚钱

这套打法本质上是在为物理 AI 构建一个专属的「CUDA」生态:软件完全开源,盈利点则在于硬件销售。DreamZero 虽然能以 7Hz 的频率运行,但这仅限于 Blackwell GB200 架构;在 H100 上,它根本无法达到实时处理的要求。一旦所有机器人公司都基于这个技术栈进行开发,它们就不得不采购 Blackwell 硬件。

对于专注于构建纯粹世界模型的初创企业而言,这无疑是一场生存危机。DreamDojo 不仅完全免费,还在 4.4 万小时的视频数据上完成了训练。“我们造了一个世界模型”这句话,已经不再能构成技术护城河。这些公司必须从 NVIDIA 尚未触及的领域寻找差异化优势,例如:掌握特定行业独有的数据、实现更快的推理速度,或者将模型深度整合进一个超越纯软件层面的垂直产品中。

JEPA:一场逆向思维的重大赌注

并非所有团队都在执着于构建视频世界模型。Yann LeCun 与谢赛宁正通过 AMI Labs(这家公司凭借 10.3 亿美元的种子轮融资,创下了欧洲初创公司的纪录)押注一条截然相反的路径。他们的核心观点是:逐像素的预测本质上是一种资源浪费——因为绝大多数像素级别的细节,对于理解物理世界的动力学机制毫无帮助。JEPA(联合嵌入预测架构)的做法是:先将观测数据编码成抽象的表示,然后直接预测这些未来表示,整个过程完全不生成视频。与 Dreamer 那种依赖像素重建作为训练信号的方法不同,JEPA 彻底绕开了重建这个环节。

世界模型:AI领域的百亿资本赌局,两条研究脉络的终极交汇

JEPA 架构示意图:联合嵌入预测架构包含两个编码分支。第一个分支计算输入 x 的表示 sx,第二个分支计算输入 y 的表示 sy。这两个编码器不必相同。一个预测模块借助潜在变量 z,从 sx 预测出 sy。能量值即为预测误差。JEPA 的简化版本可以:不使用预测器(强制两个表示完全相等)、使用无潜在变量的固定预测器,或使用像离散变量这样的简单潜在变量。

V-JEPA 2 是在 LeCun 离开 Meta 之前开发的。它先在超过一百万小时的互联网视频上进行预训练,随后仅用 62 小时的机器人数据做微调。在完全不需要生成任何视频帧的情况下,它对“抓取与放置”任务实现了 80% 的零样本成功率。现在,AMI Labs 手握 10 亿美元资金,准备验证一个核心问题:抽象预测是否真的优于像素预测。反对者的声音也很明确:像素级别的预测或许能捕捉到抽象表示所遗漏的细微物理特性;而且,你可以直观地看到视频模型预测的“未来画面”,而 JEPA 的输出只是一串人类无法解读的抽象向量。

我们看到的机遇

NVIDIA 的开源技术栈给整个领域抛出了一个现实问题:什么才是真正可防御的壁垒?我们认为,机会存在于几个不同的方向,每个方向都对应着不同的赌注和时间跨度。

  • 前沿横向世界模型:这是最大胆的赌注——构建一个比 NVIDIA 更优秀的通用世界模型。AMI Labs 正通过 JEPA 走这条路,在抽象表示空间中进行预测;Embo 则秉持着源自 Dreamer 谱系的不同架构哲学;而 Dream Labs(由前 NVIDIA GEAR 实验室的 Joel Jang 创立)则沿着 DreamGen 和 DreamDojo 的技术路线继续深耕。Cosmos 和 DreamDojo 只是这个新品类的最初版本。架构层面的“弯道超车”机会依然存在,就像 OpenAI 在 DeepMind 多年早期成果的基础上,最终打造出了 ChatGPT 一样。

  • 垂直专属世界模型:NVIDIA 的技术栈是通用的。一家专注于为外科手术机器人、仓库操作或食品制备构建世界模型的公司,如果能够利用实际部署中产生的专有数据,就有可能建立起通用模型难以逾越的护城河。一个很好的类比是:彭博终端 vs. ChatGPT。两者都处理语言,但彭博凭借其深厚的行业数据和流畅的工作流整合,对金融专业人士来说无可替代。这条路径能否成功,取决于特定领域的动力学差异到底有多大——例如,外科手术中的接触力与仓库拣选,确实是通用视频模型可能无法精确捕捉的、截然不同的物理体系。

  • 基础设施层的工具提供商:这包括推理基础设施、评估平台、仿真到现实的迁移工具、第一人称视角视频的数据管线等。这些听起来可能不如“我们构建了一个世界模型”那么酷炫,但它们解决的是真实的痛点:Genie 3 每小时运行成本约 100 美元,Odyssey 每位用户需要一台完整的 H200 服务器,视频模型的服务成本在结构上就很高。解决这些问题的公司可以在整个生态系统中获取价值。风险在于:NVIDIA 控制着硬件,而推理优化是一个快速演进的研究领域,其成果很快就会被开源社区吸收。

  • “产品内置世界模型”路线:对于这类公司而言,世界模型只是垂直整合机器人产品中的一个组件,而非产品本身。最终客户是为结果付费(例如叠好的衣物、分拣好的包裹、冲好的咖啡),而不是为推理付费。模型只是手段,机器人完成有用工作才是产品。这是大多数现有机器人公司(如 1X 自建了世界模型,Figure 和 Skild 整合了 Cosmos)正在走的道路,但新入局者需要同时应对硬件、软件和市场拓展这三重挑战。

大平行:物理 AI 的 GPT-2 时刻

NVIDIA GEAR 实验室主任 Jim Fan 为正在发生的一切创造了一个术语:大平行(The Great Parallel)。机器人领域正在逐步复刻大语言模型的发展剧本。世界模型是预训练阶段——学习模拟物理世界的下一个状态,就像 GPT 学习预测下一个 token。动作微调则将这种模拟能力,压缩到对真实机器人真正重要的那一小部分动作上。强化学习则负责完成最后的一英里。这套“三步配方”,用了六年时间将 LLM 从 GPT-3 带到了 o1。

如果这个平行关系成立,那么我们现在已经拥有的这些系统——能在一小时内学会行走的机器人、可以在其中导航的视频模型、能以 r=0.995 的精度匹配真实世界结果的预测——就是物理 AI 的 GPT-2 时刻。而这一切,在三年前还完全不存在。两条各自发展了数十年的研究脉络,如今已经融合成了一个真正的新事物:一种能够想象物理未来、实时响应动作、并将人类视频中的知识迁移到机器人上的机器。

这个赌注能否兑现,取决于“梦到世界”对于最难的操作任务是否真的不可或缺——那些光看足够多例子还不够、必须预测推、拉、扭转时会发生什么的任务。我们相信它是。但时间表比 100 亿美元所暗示的要更加不确定。

不过,借用 Jim Fan 的话来说:我们这一代人,生得太晚,错过了探索地球的时代;又生得太早,赶不上探索星际的时代。但我们可能恰好赶上了——教会机器将物理世界梦入现实的时代。

参考文献

  1. Schmidhuber, J. (1990). Making the World Differentiable. Technical Report FKI-126-90, TU Munich.
  2. Craik, K. (1943). The Nature of Explanation. Cambridge University Press.
  3. Oh, J. et al. (2015). Action-Conditional Video Prediction using Deep Networks in Atari Games. NeurIPS 2015.
  4. Finn, C., Goodfellow, I. & Levine, S. (2016). Unsupervised Learning for Physical Interaction through Video Prediction. NeurIPS 2016.
  5. Ha, D. & Schmidhuber, J. (2018). World Models. NeurIPS 2018. Interactive demos: worldmodels.github.io.
  6. Hafner, D. et al. (2019). Learning Latent Dynamics for Planning from Pixels. ICML 2019. (PlaNet)
  7. Schrittwieser, J. et al. (2020). Mastering Atari, Go, Chess and Shogi by Planning with a Learned Model. Nature. (MuZero)
  8. Hafner, D. et al. (2020). Dream to Control: Learning Behaviors by Latent Imagination. ICLR 2020. (Dreamer V1)

  9. Hafner, D. 等人 (2021). 通过离散世界模型掌握Atari游戏. ICLR 2021. (DreamerV2)

  10. Nair, S. 等人 (2022). R3M:面向机器人操作的通用视觉表征. CoRL 2022.

  11. Kareer, S. 等人 (2025). EgoMimic:通过自我中心视频扩展模仿学习. ICRA 2025.

  12. Baker, B. 等人 (2022). 视频预训练 (VPT):通过观看无标签在线视频学习行动. NeurIPS 2022.

  13. Wu, P. 等人 (2022). DayDreamer:面向物理机器人学习的世界模型. CoRL 2022. 项目地址:danijar.com/project/daydreamer.

  14. LeCun, Y. (2022). 通往自主机器智能的路径. OpenReview.

  15. Hafner, D. 等人 (2025). 通过世界模型掌握多样化领域. Nature. (DreamerV3)

  16. Bruce, J. 等人 (2024). Genie:生成式交互环境. ICML 2024. (Genie 1)

  17. Yang, S. 等人 (2024). 学习交互式真实世界模拟器. ICLR 2024 杰出论文. (UniSim). 项目地址:universal-simulator.github.io/unisim.

  18. Valevski, D. 等人 (2024). 扩散模型是实时游戏引擎. (GameNGen). 项目地址:gamengen.github.io.

  19. Yin, T., Huang, X. 等人 (2025). 从慢双向到快自回归视频扩散模型. CVPR 2025. (AR-DiT / CausVid)

  20. Huang, X. 等人 (2025). 自强制机制. NeurIPS 2025.

  21. Hafner, D. & Yan, W. (2025). 在可扩展世界模型内部训练智能体. (Dreamer 4)

  22. Jang, J. 等人 (2025). DreamGen:通过视频世界模型解锁机器人学习中的泛化能力. CoRL 2025.

  23. Gao, S., Liang, W. 等人 (2026). DreamDojo:基于大规模人类视频的通用机器人世界模型. 项目地址:dreamdojo-world.github.io.

  24. Ye, S., Ge, Y. 等人 (2026). DreamZero:作为零样本策略的世界行动模型. 项目地址:dreamzero0.github.io.

  25. Zheng, K., Niu, D. 等人 (2026). EgoScale:利用多样化自我中心人类数据扩展灵巧操作能力.

  26. Physical Intelligence. (2025). Pi-0.5:具备开放世界泛化能力的视觉-语言-行动模型.


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/35037

(0)
上一篇 6小时前
下一篇 6小时前

相关推荐

  • VANS模型:从文本到视频的AI推理革命,开启“视频即答案”新纪元

    在人工智能技术日新月异的今天,我们正见证着AI从单纯的信息处理工具向具备深度感知与创造性输出能力的智能体演进。传统AI模型在面对用户查询时,往往局限于生成文本答案,这种交互方式在解释复杂动态过程或视觉化场景时显得力不从心。例如,当用户询问“如何打温莎结”时,文字描述难以精确传达手指的缠绕顺序和力度变化;而面对“电影主角下一秒会做什么”的开放式问题,静态的文字…

    2025年11月22日
    35100
  • Runway发布GWM-1世界模型全家桶:从环境模拟到机器人操作的全栈式AI解决方案

    近日,知名AI视频生成公司Runway正式发布了其首个通用世界模型GWM-1,标志着该公司在AI内容生成领域迈出了从单一视频生成向复杂世界模拟的关键一步。这一发布不仅展示了Runway在生成式AI技术上的深厚积累,更预示着AI技术正在从内容创作工具向物理世界模拟平台演进。 GWM-1基于Runway最新的视频生成模型Gen-4.5构建,但采用了完全不同的技术…

    2025年12月13日
    42500
  • 深度解析月之暗面Kimi-K2.5-Thinking:旗舰推理模型在Agent、代码、图像任务上的突破与局限

    Kimi-K2.5-Thinking是月之暗面最新发布的旗舰推理模型,被官方称为“Kimi迄今最智能的模型”。该模型在Agent、代码、图像、视频及一系列通用智能任务上取得了开源领域的最佳表现,其核心在于采用了深度思考架构,具备强大的推理能力。 核心结论: 三大亮点: 深度推理能力出色:在数学计算和逻辑推理任务中表现优秀,能够提供详细的推理过程。 中文语义理…

    2026年2月6日
    2.8K00
  • HyperBookLM:开源研究助手,用Web Agent构建NotebookLM替代方案

    当下的研究流程常常是混乱的。 你需要在多个标签页中打开博客链接,将 PDF 下载到本地,而笔记则散落在 Notion 或 Google Docs 等不同工具里。现有的 AI 工具通常一次只能处理一个信息来源。Google 的 NotebookLM 在一定程度上缓解了这个问题,但它是一个封闭、受限且对开发者不友好的系统。 这正是 HyperBookLM 的价值…

    2026年1月18日
    63100
  • 谷歌开放世界模型Genie 3:AI游戏创作门槛归零,沉浸式虚拟世界一键生成

    谷歌世界模型,再一次惊艳了所有人! 今天一早,谷歌 DeepMind 开放了世界模型 Genie 3 的实验性研究原型「Project Genie」,允许用户创建、编辑并探索虚拟世界。 在世界模型 Genie 3 之外,Project Genie 同样由图像生成与编辑模型 Nano Banana Pro 和语言模型 Gemini 提供技术支撑。 去年 8 月…

    2026年1月30日
    32300