过去十年,AI 的瓶颈在于算力;未来十年,物理 AI 的瓶颈则在于数据。而数据的根基,是仿真。
没有可规模化的仿真世界,就无法获得可规模化的机器人数据;缺乏统一的仿真标准,真正的物理 AI 生态便无从谈起。
仿真,正逐渐成为物理 AI 时代的“CUDA”。
CUDA 曾将 GPU 计算打造为 AI 时代的统一基石。如今,仿真正扮演着物理 AI 时代新标准层的角色。
物理 AI 的核心瓶颈已然转变
回顾技术演进历程,每个阶段都有其独特的关键瓶颈。
在大语言模型时代,这一瓶颈是算力。无论是闭源的 GPT、Claude,还是开源的 Llama、Qwen、DeepSeek,该领域的核心命题始终如一:如何利用更多算力,在更大数据集上验证 Scaling Law。算力的上限,决定了模型能力的边界。
支撑这轮浪潮的底层基础设施,正是以 CUDA 为代表的统一计算标准。CUDA 将 GPU 从图形计算工具转变为 AI 时代的通用计算底座,使大模型训练首次拥有了可规模化调用的计算资源。谁掌握了算力入口,谁就赢得了时代红利。
然而,进入物理 AI 时代,核心瓶颈正从“算力”转向“数据”。
过去的大模型,本质上是利用互联网语料学习人类世界;而物理 AI 则需要学习真实的物理世界。语言模型学习的是文字间的关联,机器人学习的则是力如何传递、接触如何发生、动作如何实现、世界如何反馈。
这意味着,物理 AI 所需的数据,不再是互联网中天然存在的资源,而必须在“可交互、可执行、可验证”的物理环境中被系统性地生成。

数据的困境,源于机器人学习方式的根本差异。斯坦福大学教授李飞飞曾指出:“将数据引入机器人训练,远比收集图片困难得多。” 机器人模型要掌握抓取、搬运、操作、行走等技能,需要的不是静态图像,而是大量覆盖真实物理交互的高质量行动数据。
这类数据既无法像网页文本一样从互联网爬取,也无法通过单纯扩大算力凭空生成。自动驾驶领域尚有“影子模式”:数百万辆量产车每天在真实道路上行驶,司机的每个操作都能成为天然的监督信号;但机器人领域并没有这样的基础设施。
正因如此,李飞飞进一步提出,可以利用大量仿真数据训练机器人“大脑”,再用少量真实数据弥合与现实世界的差距。换言之,机器人数据并非现成的互联网语料,而必须在可交互、可执行、可验证的环境中被系统性生产;没有成熟的仿真体系,就没有规模化的训练数据,也就没有具身智能的持续迭代。
除了数据数量,数据质量同样至关重要。过去谈论数据质量,往往聚焦于成功完成任务的样本;但物理 AI 更需要理解失败——物体为何滑落、动作为何失稳、接触为何偏离预期。只有不断暴露问题、纠错反馈,模型才能从数据中真正获得学习信号。
因此,数据背后还有一个同等重要却更隐蔽的瓶颈:评测。
大模型时代的评测相对成熟:训练损失是可靠的优化信号,标准化基准(如 MMLU、HumanEval 等)能直接反映模型能力的进展。但在物理 AI 领域,这套逻辑失效了。训练损失的下降与实验室 Demo 的成功,已难以全面反映模型在真实环境中的综合能力;今天能跑通的动作,换一个灯光或物体表面,可能就会失效。
问题的核心在于:机器人的训练与评测,本质上都必须在符合真实物理规则的环境中反复执行。但真实世界无法无限重置、无法大规模并行,也难以系统性地构造失败场景。缺乏统一、可复现、可并行、可量化的评测体系,数据就很难有效指导训练,模型也无法知晓自身在何处失败,更无法定向补充数据、提升能力。
因此,仿真不再是辅助工具,而是物理 AI 数据生产与能力评测的前提条件。谁能构建更大、更快、更真实的仿真世界,谁就能同时打开数据生产和能力评测两扇门,从而掌握通往通用具身智能的钥匙。
仿真:国际巨头争抢的物理 AI 战略高地
如果说上述判断还停留在理论层面,那么过去十几年国际巨头的一系列动作,早已用真金白银做出了表态。他们通过收购、开源、孵化、自研,不遗余力地将仿真能力嵌入到自身的机器人技术栈与生态标准中。
NVIDIA 早在 2008 年就收购了当时最主流的物理引擎 PhysX,并深度绑定自家 GPU 硬件,将其逐步从游戏物理工具演进为 Omniverse 中的高精度仿真内核,成为 Isaac Sim 等机器人平台的核心物理基础设施。
Google DeepMind 在 2021 年收购了 MuJoCo——此前它已是机器人和强化学习领域的标配工具,成为论文、基准测试、开源代码的默认选项。由此,Google 顺理成章地掌握了整个机器人学术界的工具链主导权。
Drake 孵化自 MIT CSAIL,后被 Toyota Research Institute(TRI)接管,成为高可信动力学仿真的可扩展底座;Bullet 则随着创始人的入职而与 Google 生态实现深度绑定。
Disney Research 则走了一条自研路线:孵化出专攻闭链机构与极端工况运动求解的仿真引擎 Kamino,专注于解决非标准构型下的稳定站立和运动问题,从而应对商业化机器人落地的高频痛点。
这些举措并非偶然,而是全球顶级机构在仿真赛道上的战略性卡位。过去行业认为,仿真只是一个工程工具;但今天全球巨头真正争夺的,已不再是“谁的引擎更快”,而是谁能定义世界如何被建模、物理如何被表达、数据如何被生成、能力如何被评测、机器人如何被训练。
因为谁定义仿真,谁就定义了机器如何理解现实世界。这已不是工具之争,而是世界定义权之争。
问题也随之而来:这些求解器长期分散在不同体系中,物理表达、资产标准、训练接口和评测流程彼此割裂。物理 AI 需要的,不是更多单点工具,而是一个能将这些能力整合进同一架构的中枢引擎。
Newton:全球物理 AI 基础设施首次走向统一

Newton 应运而生。
这并非一次普通的开源发布,而是全球物理 AI 基础设施首次开始走向统一。过去十几年,GPU 并行计算、高精度接触动力学、复杂机构求解、强化学习仿真、工业级机器人验证,始终分散在不同体系中。Newton 首次尝试将这些能力整合进同一个开放架构中。
它试图统一的是物理 AI 的底层世界模型。
2025 年 9 月,NVIDIA、Google DeepMind 与 Disney Research 联合开源了物理仿真引擎 Newton Beta 版。这并非某一家公司的单点开源尝试,而是三家全球顶级机构投入数百名工程师与研究员、历时近两年持续开发,将各自最强的仿真能力融入同一个开放架构的成果。
NVIDIA 贡献的是 GPU 原生加速、Warp 框架与 Isaac 生态。过去十几年,NVIDIA 持续推动 GPU 从图形计算走向通用计算,再走向 AI 训练与物理仿真。到了 Newton,这套能力被进一步延伸到机器人学习场景:高并行、可扩展,并能与现代 AI 训练基础设施深度结合。
Google DeepMind 带来了 MuJoCo 在机器人学习与高精度接触动力学上的长期积累。MuJoCo 曾是机器人强化学习和控制研究中最重要的仿真工具之一,而 Newton 将这套高精度动力学能力迁移到 GPU 原生框架中,使其能够支撑更大规模的并行训练和评测。
Disney Research 则将 Kamino 等仿真能力纳入其中。与标准机器人形态不同,Disney 长期面对闭链机构、复杂结构、非标准构型与极端工况下的运动控制问题,这使其在复杂机构稳定求解上形成了独特积累。Newton 将这一路线吸收进统一架构,使机器人仿真不再局限于传统刚体系统,而是进一步覆盖复杂机构、柔性材料与多物理交互。
好的,这是根据您的要求深度重写与降重后的文章片段:
换言之,Newton 首次在单一开源架构内,系统性地融合了 GPU 并行计算、高精度接触动力学、复杂机构求解以及机器人学习生态。
其模块化设计、原生 GPU 加速、自动微分特性,以及跨生态系统的协作机制,使得 Newton 超越了传统物理引擎的范畴,更像是为物理 AI 的训练、评估和部署量身打造的统一仿真基座。
正是这些特质,让 Newton 从诞生起便占据了物理 AI 基础设施领域的战略制高点。
值得关注的是,在这幅由全球顶尖机构共同绘制的物理 AI 仿真基础设施版图中,首次出现了一家中国公司的身影。
中国公司首次进入全球物理 AI 标准定义层

今年三月,光轮智能正式受邀,以核心指导委员的身份加入开源 GPU 加速物理引擎 Newton 项目,在关键的具身仿真技术方向上发挥主导作用。它与 NVIDIA、Google DeepMind、Disney Research 等机构共同引领下一代开源物理 AI 仿真标准的制定。
同期加入的还有丰田研究院(Toyota Research Institute),其带来的高可信度动力学仿真可扩展软件底座 Drake,进一步丰富了 Newton 的技术栈。
这是中国公司首次以核心共建者的身份,参与到全球物理 AI 仿真基础设施标准的定义中来。回首过去,操作系统生态由 Microsoft 与 Apple 定义,移动生态由 Apple 与 Google 定义,AI 训练框架与计算标准则由 NVIDIA 与 Google 等巨头主导。而今,在物理 AI 的仿真标准领域,终于有了中国公司的核心参与。
光轮智能之所以能加入 Newton TSC,依托的是其全栈自研的“求解—测量—生成”三位一体技术平台。
- 首先,凭借自研求解器与物理测量体系,光轮主导 Newton 引擎核心能力的持续演进,这包括求解器的物理验证与系统性标定、接触建模与多物理场能力的优化,以及不断提升仿真结果与真实世界的一致性。
- 其次,围绕 SimReady 体系,光轮致力于推动仿真资产在物理属性规范、数据格式、接口标准、验证流程与评测体系等方面的进一步统一,从而完善下一代仿真世界标准。
- 第三,依托物理测量工厂与资产生成体系,光轮持续提升规模化 SimReady 世界的供给能力,构建高保真、可复用的仿真资产与场景库,为全球开发者提供可直接使用的仿真资源。
“求解、测量、生成”三者构成了一个从物理建模、引擎验证到工程落地的完整闭环。这意味着 Newton 不仅能进行计算,更具备可验证、可复用、可规模化进入真实工业流程的能力。

正因如此,光轮智能成为了 Newton TSC 核心共建格局中唯一的中国公司。这标志着其在国际生态层面获得了对其在物理 AI 底层技术领域能力与影响力的正式认可。
事实上,光轮智能在国际开源生态中的布局远不止 Newton 这一个点。
此前,光轮智能已联合 NVIDIA 开源发布了 Isaac Lab-Arena 机器人策略评测基准框架,推动具身大模型评测走向可复现、可扩展、可规模化的道路。其自研的 LeIsaac 仿真平台被 Hugging Face 官方文档收录,成为全球开发者进入具身仿真领域的标准工程框架。此外,光轮还与 World Labs 联手,通过 RoboFinals 解决世界模型的评测难题;并与通义千问合作,依托 RoboFinals 共同构建可复现、可诊断的工业级评测闭环,推动具身智能评测从学术 benchmark 迈向工业级基础设施。
从底层的物理引擎,到开发者平台,再到评测框架与工业级闭环,光轮智能参与的并非孤立项目,而是一条清晰的生态路径:底层物理引擎定义“世界如何运行”,仿真平台定义“开发者如何使用”,评测框架定义“模型如何被衡量”,工业级评测闭环则定义“能力如何持续迭代”。
这条生态路径的价值已在市场中得到验证。如今,光轮智能已成为全球物理 AI 仿真与数据基础设施的重要供应商,服务于全球所有排名前五的世界模型团队。在国际主流的具身智能团队中,超过 80% 的仿真资产与合成数据都源自光轮。
在这条路径上,光轮智能的角色已经转变:它不再仅仅是为头部模型团队提供仿真资产与合成数据,更是在引领构建物理 AI 时代的开源基础设施、开发者平台与评测标准。
中国公司首次以核心技术共建者的身份,站到了全球物理 AI 仿真基础设施标准形成的关键位置。

全球物理 AI 仿真 Top 5 专家天团
审视 Newton TSC 的人员构成,可谓群星闪耀。

- Miles Macklin Ph.D.(NVIDIA):NVIDIA 仿真技术高级工程总监,Warp 框架的联合创造者。如果说 Newton 的速度优势有一个技术源头,那便是 Macklin 及其团队十多年来在 GPU 并行物理仿真领域的深厚积累。
- Yuval Tassa Ph.D.(Google DeepMind):机器人仿真团队负责人,MuJoCo 联合创始人。他解决了 MuJoCo-Warp 的融合问题,让 MuJoCo 的物理精度在 GPU 上重获新生。Tassa 代表着机器人学界最核心的高精度仿真路径。
- 谢晨 Ph.D.(光轮智能):光轮智能创始人兼 CEO,曾任 NVIDIA 及 Cruise 自动驾驶仿真负责人,长期致力于推动仿真与合成数据在自动驾驶和物理 AI 中的产业化落地。他国际首创将生成式 AI 融入仿真,并主导确立了光轮“求解—测量—生成”三位一体的全栈自研仿真技术路线。
- Moritz Bächer Ph.D.(Disney Research):Disney Research 负责人。Disney 的主题乐园可能是全球对娱乐机器人要求最苛刻的环境,而 Kamino 求解器正是在他领导下诞生的。
- Michael Sherman Ph.D.(TRI):机器人仿真基础设施领域的资深专家。作为 TRI 机器人仿真的核心负责人之一,其职业生涯横跨 SD/FAST、Simbody、OpenSim、Drake 等多代关键仿真平台。
与这四位全球仿真领域的核心奠基者相比,谢晨博士的独特之处在于:他并非来自单一求解器、单一学术体系或单点工程模块,而是在自动驾驶与物理 AI 两代产业浪潮中,持续主导仿真基础设施的工程化、规模化与系统化落地。
他先后在 Cruise 和 NVIDIA 主导自动驾驶仿真体系建设,在 L4 自动驾驶的一线验证了仿真与合成数据对算法迭代的价值,并在全球仿真基础设施从自动驾驶时代迈向物理 AI 时代的过程中扮演了关键角色。
在这一过程中,谢晨博士形成了与传统仿真专家截然不同的系统性视角:仿真并非一个求解器、一套工具链,或一个用于测试的虚拟环境,而是一套贯穿数据生成、模型训练、能力评测与真实部署的完整教育系统。
在自动驾驶时代,仿真主要服务于视觉感知、场景回放与回归测试。而进入机器人与物理 AI 阶段,仿真还必须解决接触、力传递、材料形变、动作失败等真实物理交互问题,并支撑模型在可复现、可规模化的环境中持续学习。
2023 年,光轮智能的创立正是要将这一判断系统化,转化为可落地、可交付、可规模化的全栈仿真基础设施。光轮所构建的不是单点仿真工具,而是以求解、测量、生成、训练、评测与部署为核心的完整闭环,引领仿真从“辅助验证工具”走向物理 AI 的核心生产系统。
因此,他加入 Newton TSC,不仅是个人荣誉,更标志着中国力量首次以核心构建者的身份,进入了全球物理 AI 基础设施的核心坐标。
仿真是物理 AI 时代的 CUDA
过去十年比拼的是算力,未来十年比拼的则是数据。而数据的前提,正是仿真。
2006 年,NVIDIA 发布了 CUDA。在此之前,GPU 主要被视为图形计算工具,普通开发者想要调用其并行计算能力,门槛极高。CUDA 将 GPU 的计算能力抽象为一套标准接口,让开发者能够规模化地调用。
CUDA之所以能取得决定性成功,关键在于它在关键的窗口期内同时完成了三项核心任务:首先,建立了一套统一的底层标准,使得原本碎片化的算力资源能够被高效、统一地调度;其次,打造了如cuDNN等一整套完整的工具链,将底层的算力能力“翻译”为开发者可以便捷调用的生产力;最后,通过开放生态,使这套标准具备了跨场景、跨开发者以及跨模型训练流程的普适性。
如今,物理AI正站在一个与当年极其相似的历史节点上。在大模型时代,CUDA定义了“如何调用计算”;而在物理AI时代,仿真需要定义的是“如何生成世界”。这是因为,机器人真正需要的是更多可交互、可执行、可评测、可迁移的物理世界。因此,仿真正在从一种辅助工具,跃升为定义行业的基础标准:它需要明确机器人的训练场景、世界的表征逻辑,以及数据生产和结果评测的方法。
回顾历史,每一次基础设施标准的窗口期一旦关闭,后来的竞争者就很难再获得定义权。在PC时代,操作系统生态由Microsoft和Apple主导;在移动时代,应用生态由Apple和Google划定;而在大模型时代,训练框架与计算标准则由CUDA定义。
而现在,物理AI的仿真层正处于规则尚未固化的窗口期。谁能定义世界如何被表达、数据如何被生成、能力如何被评测、机器人如何被训练,谁就有机会去定义物理AI的未来。
这个窗口不会永远敞开。
而这一次,中国的企业第一次站到了书写规则的位置上。
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/34430

