何恺明团队突破性研究:GeoPT用合成动力学预训练,让AI自学物理规律,节省60%仿真数据

何恺明团队突破性研究:GeoPT合成动力学预训练,让AI自学物理规律,节省60%仿真数据

静态3D资产缺少动力学信息,而真实的物理仿真标签又极其昂贵——如何高效扩展物理仿真模型的训练?

何恺明团队突破性研究:GeoPT用合成动力学预训练,让AI自学物理规律,节省60%仿真数据

何恺明团队的最新论文GeoPT 提出了一种新思路。该研究引入了一种名为动力学提升几何预训练 的全新范式,通过合成动力学 将静态几何“提升”到动态空间,使模型能够在无标签数据上学习粒子轨迹演化,从而获取物理直觉。

在达到同等精度的条件下,GeoPT最高可节省60% 的物理仿真数据。

将静态几何“提升”到动态空间

物理系统的解场通常由几何(定义空间边界)和系统条件(如速度、力等动力学驱动因素)共同决定。以空气动力学为例,汽车的形状定义了流场的边界,而风速和风向则决定了流场的具体演化。

当前,基于数据驱动的神经网络仿真器正逐渐取代传统的物理仿真方法。然而,这条路径面临两大瓶颈:

  1. 标注成本极高:训练仿真器依赖传统数值求解器生成的监督数据,生成一个工业级精度的样本往往需要数万CPU小时,高昂的标签生成成本严重限制了模型的规模化扩展。
  2. 静态预训练的局限:尽管互联网上存在海量3D几何数据,但仅对静态几何进行自监督预训练(如掩码重建)会完全缺失“动力学”维度,导致模型无法捕捉物理仿真的核心特征,甚至在下游任务中出现性能倒退。

为此,研究团队提出了动力学提升的几何预训练范式。

何恺明团队突破性研究:GeoPT用合成动力学预训练,让AI自学物理规律,节省60%仿真数据

其核心思想在于:虽然真实的物理标签难以获取,但“动力学”本身可以被参数化。研究在预训练阶段引入合成动力学,通过为模型输入随机采样的速度场,将表征学习从单纯的几何空间提升到“几何+动力学”的联合空间。

具体而言,研究不依赖昂贵仿真获取的真实速度场,而是通过为每个粒子随机采样速度来构建合成速度场

何恺明团队突破性研究:GeoPT用合成动力学预训练,让AI自学物理规律,节省60%仿真数据

由此,自监督学习的目标转变为预测几何特征在这些合成动力学作用下的演化轨迹:

何恺明团队突破性研究:GeoPT用合成动力学预训练,让AI自学物理规律,节省60%仿真数据

通过追踪几何特征沿合成轨迹的演化过程,模型获得了一个完全基于几何构建、却能感知动力学的监督信号。这使得模型在接触真实物理标签前,就能通过海量无标签几何数据,预先学习物理演化中通用的空间约束与耦合规律。

该框架为下游任务提供了统一接口:无论在预训练还是微调阶段,模型均接收几何和速度作为输入。预训练后,GeoPT能够捕捉以速度为条件的物理相关性。在微调时,只需将随机速度替换为编码了特定仿真设置的真实速度,即可适配具体任务。

何恺明团队突破性研究:GeoPT用合成动力学预训练,让AI自学物理规律,节省60%仿真数据

训练流程

在预训练阶段,模型被训练用于预测合成动力学下的几何特征轨迹,其损失函数定义为:

何恺明团队突破性研究:GeoPT用合成动力学预训练,让AI自学物理规律,节省60%仿真数据

该目标函数涉及三个核心变量的组合:
* 几何:从包含汽车、飞机、船舶等万余个几何体的数据集中进行类别平衡采样。
* 追踪点:从物体周围的体积空间和几何边界上采样初始位置。
* 速度:从有界球体中为每个点均匀采样随机速度。

给定上述信息后,轨迹可通过公式确定性计算得出,监督目标即为沿此路径的几何特征序列。

在微调阶段,将预训练时的随机速度替换为任务特定的速度编码:
* 空气动力学:将入射流条件编码为速度场,方向与流向一致。
* 水动力学:分别为水、气两相配置不同的速度场,以反映两相流。
* 碰撞仿真:将冲击方向编码为速度场,其大小从碰撞点开始随空间衰减,以反映力的传播。

这种设计使得单个预训练模型只需通过重配置速度输入,即可适配多样化的物理仿真任务。

研究采用Transolver作为骨干网络,配置了从3M到15M参数的三种模型尺寸。轨迹被离散化为3个步骤,使用向量距离编码几何信息。每个几何体采样约3.6万个点,并生成100个随机动力学场。

在计算效率上,监督信号通过优化的射线-三角形求交算法计算,处理一个样本仅需约0.2秒,比工业级CFD仿真快约10^7倍。在80核CPU上,仅需3天即可生成约5TB的预训练数据集。

实验验证

预训练使用ShapeNet-V1数据集,包含汽车、飞机、船舶等工业相关几何,共生成超过100万个样本(约5TB数据)。下游任务覆盖:
* 流体力学:汽车空气动力学、飞机受力分析、船舶水动力学。
* 固体力学:汽车碰撞最大应力仿真。
* 辐射度仿真

实验结果表明,GeoPT显著降低了对标注数据的依赖,在达到相同精度时可节省20-60% 的物理仿真数据。同时,微调阶段的收敛速度比从头训练快约2倍

何恺明团队突破性研究:GeoPT用合成动力学预训练,让AI自学物理规律,节省60%仿真数据

此外,随着模型层数增加和预训练数据量增大,性能持续稳步提升,展现了“物理大模型”的扩展潜力。

何恺明团队突破性研究:GeoPT用合成动力学预训练,让AI自学物理规律,节省60%仿真数据

总结

该研究证明,通过“合成动力学轨迹”进行预训练,能有效弥合静态几何与复杂动态物理任务之间的鸿沟。GeoPT为构建通用的物理仿真基础模型开辟了一条可扩展的路径:大规模无标签几何数据 + 简单的合成动力学自监督 = 强大的跨领域物理仿真能力

论文作者

这篇论文的第一作者是MIT CSAIL的博士后研究员吴海旭

何恺明团队突破性研究:GeoPT用合成动力学预训练,让AI自学物理规律,节省60%仿真数据

他师从Wojciech Matusik教授,此前在清华大学获得博士和学士学位,导师为龙明盛教授(本文作者之一)。

何恺明团队突破性研究:GeoPT用合成动力学预训练,让AI自学物理规律,节省60%仿真数据
何恺明团队突破性研究:GeoPT用合成动力学预训练,让AI自学物理规律,节省60%仿真数据

共同第一作者Minghao Guo是MIT CSAIL的博士生,同样师从Wojciech Matusik教授,本科就读于清华大学,硕士毕业于香港中文大学。

何恺明团队突破性研究:GeoPT用合成动力学预训练,让AI自学物理规律,节省60%仿真数据

其他作者包括何恺明教授的博士后Zongyi Li、MIT博士生Zhiyang (Frank) Dou,以及何恺明教授和Wojciech Matusik教授。

参考链接:
[1] https://arxiv.org/abs/2602.20399v1
[2] https://github.com/Physics-Scaling/GeoPT


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/23197

(0)
上一篇 2026年2月26日 下午5:57
下一篇 2026年2月26日 下午8:40

相关推荐

  • 清华北大腾讯联合研究:GTR框架破解VLM智能体训练中的’思维崩塌’难题

    论文第一作者为清华大学在读博士生魏彤,研究方向为大模型智能体与强化学习,导师为兴军亮、史元春;共同一作为腾讯杨一君;合作者为北京大学卢宗青;通讯作者为叶德珩。 基于可验证奖励的强化学习(Reinforcement Learning with Verifiable Reward, RLVR)能够有效提升大语言模型(LLMs)在思维链(Chain-of-Thou…

    2026年3月13日
    23900
  • PyTorch torch.compile性能突破:LayerNorm与RMSNorm内核优化,GPU性能提升至SOTA水平

    关键词:torch.compile、归一化算子、LayerNorm、RMSNorm、GPU性能优化 LayerNorm与RMSNorm是深度学习模型中的基础归一化算子,用于对输入数据进行标准化处理。它们是确保大模型训练平稳收敛、提升推理效率的关键模块。在高性能GPU平台上,其内核性能直接决定了整体训练吞吐量。 目前,业界顶尖的归一化内核多依赖于手工深度优化。…

    2026年4月9日
    18200
  • Sol-RL:NVIDIA联合团队突破扩散模型强化学习算力瓶颈,FP4探索+BF16训练实现高效对齐

    关键词:扩散模型强化学习(Diffusion RL)、NVFP4 量化、两阶段解耦训练、算法-硬件协同设计、GRPO、Blackwell 架构 在文本到图像扩散模型的后训练对齐领域,GRPO 等强化学习方法虽效果显著,却深陷“规模化采样”带来的巨大算力消耗困境。 NVIDIA、香港大学及 MIT 联合团队提出的 Sol-RL 框架,并未采用对模型进行直接粗暴…

    4天前
    11100
  • 突破多GPU通信瓶颈:AutoOverlap实现块级细粒度计算-通信重叠,最高加速4.7倍

    关键词:计算-通信重叠、块调度、分布式编译器、GPU、Triton、多 GPU 工作负载 通过块级调度在单内核内实现计算与通信的深度重叠 近年来,大语言模型的规模呈指数级增长,训练这些模型需要数百甚至数千块 GPU。在多 GPU 系统中,通信已经取代计算成为主要瓶颈。即使采用 NVLink、NVSwitch 等高速互连技术,AllGather、ReduceS…

    2026年2月23日
    31200
  • 英伟达GDPO:突破GRPO局限,精准优化多奖励强化学习

    GRPO 是促使 DeepSeek-R1 成功的基础技术之一。最近一两年,GRPO 及其变体因其高效性和简洁性,已成为业内广泛采用的强化学习算法。 然而,随着语言模型能力的不断提升,用户对它们的期待也在发生变化:不仅要回答正确,还要在各种不同场景下表现出符合多样化人类偏好的行为。为此,强化学习训练流程开始引入多种奖励信号,每一种奖励对应一种不同的偏好,用来共…

    2026年1月11日
    35600