预训练范式

  • 何恺明团队突破性研究:GeoPT用合成动力学预训练,让AI自学物理规律,节省60%仿真数据

    何恺明团队突破性研究:GeoPT用合成动力学预训练,让AI自学物理规律,节省60%仿真数据 静态3D资产缺少动力学信息,而真实的物理仿真标签又极其昂贵——如何高效扩展物理仿真模型的训练? 何恺明团队的最新论文GeoPT 提出了一种新思路。该研究引入了一种名为动力学提升几何预训练 的全新范式,通过合成动力学 将静态几何“提升”到动态空间,使模型能够在无标签数据…

    2026年2月26日
    22500
  • 英伟达专家预言:世界建模将取代词预测,开启AI预训练新纪元

    henry 发自 凹非寺 量子位 | 公众号 QbitAI 继“下一个词预测”之后,世界建模将成为新的预训练范式。 这是英伟达机器人主管Jim Fan 给出的最新判断。 他认为,2026年将成为大世界模型(Large World Models)真正为机器人领域以及更广义的多模态AI奠定基础的第一年。 谢赛宁随即转发表示赞同:“事后看来显而易见”。 在这篇长文…

    2026年2月5日
    13200
  • AI范式革命:从预测下一个词到预测下一个物理状态

    又一位大佬准备对现有 AI 技术范式开刀了。 今天凌晨,英伟达高级研究科学家、机器人团队负责人 Jim Fan(范麟熙)发布文章《第二代预训练范式》,引发了机器学习社区的讨论。 Jim Fan 指出,目前以大语言模型(LLM)为代表的 AI 模型主要基于「对下一词的预测」,这第一代范式虽然取得了巨大成功,但在将其应用于物理世界时,出现了明显的「水土不服」。 …

    2026年2月4日
    16100