从抓取到通用智能:Google DeepMind前研究员揭秘人形机器人三大时代

你可能已经对人形机器人的各种演示感到审美疲劳了。但Ted Xiao却认为,即使是最简陋的demo,如果放在两年前,也足以让整个领域的研究人员震惊不已——因为当时几乎没人相信这件事真的能实现。

Ted Xiao曾在Google DeepMind担任Staff Research Scientist及技术负责人,长达8年之久。他参与了RT-1、RT-2、SayCan以及Open X-Embodiment等具有行业定义意义的机器人基础模型项目。如今,他已加入由亚马逊创始人杰夫·贝佐斯亲自掌舵的新型AI初创公司——Project Prometheus,致力于突破具身智能在大规模环境下的推理与控制难题。

从抓取到通用智能:Google DeepMind前研究员揭秘人形机器人三大时代

在最近的一次访谈中(来自RoboPapers),Ted Xiao以亲历者的视角,系统性地回顾了过去近十年具身智能领域的变革。他复盘了每个关键决策背后的思考过程——那些在论文中无法看到的犹豫、转折与顿悟时刻。

从抓取到通用智能:Google DeepMind前研究员揭秘人形机器人三大时代

视频链接:http://youtube.com/watch?v=etPqBphTgmE&t=1101s

这篇文章整理了Ted所讲述的机器人学习的三个时代:存在性证明时代、基础模型时代、Scaling时代。

Ted会告诉你,为什么他们的团队曾陷入“Code Yellowish”状态,一年半不发论文,只埋头收集数据;在强化学习被寄予厚望的时期,为什么他们会大胆推进当时不被看好的模仿学习;以及为什么把视觉语言模型直接当作机器人策略骨架的VLA路线,他们本可以早至少一年动手,却硬是晚了一步?

从抓取到通用智能:Google DeepMind前研究员揭秘人形机器人三大时代

如果你关心AI,关心机器人,或者只是好奇“这波浪潮是怎么起来并持续演进的”,这个故事值得细读。

存在性证明时代:
端到端学习,真的能行吗?

2015、2016年,DQN(Deep Q-Networks)和AlphaGo相继问世,证明了端到端数据驱动方法的惊人普适性。与此同时,机器人硬件其实早已成熟——斯坦福几十年前的双臂移动操作系统已能完成各种家务,瓶颈始终是背后那个必须介入的人类智能。

于是,一个听起来很疯狂的问题出现了:将强化学习等数据驱动方法直接应用于真实机器人系统,会发生什么?

Ted就是被这个问题吸引进来的。他加入了当时不到20人的Google Brain机器人团队,做一件听起来很枯燥的事:把一批KUKA机械臂摆进房间,让它们24小时不间断抓取物体,跑在线强化学习。

这件事的难点,比想象中要大得多。

Atari和Go的成功,依赖于清晰离散的动作空间——游戏手柄上那几个按键,棋盘上有限的落子位置。而真实机械臂面对的,是一个高维、连续的动作空间:六七个关节的角度、末端执行器的位姿、夹爪的力度……加上从摄像头以较高频率传入的图像观测,无论是状态空间还是动作空间的维度,都远超游戏场景。直接套用为Atari设计的value-based RL方法,是行不通的。

团队提出的解法是QT-Opt——用交叉熵方法(CEM)来近似求解Bellman更新中的Q值最大化问题,从而处理机器人连续动作空间。QT-Opt不仅仅是算法创新,还需要构建一整套系统:24小时运行的机械臂农场(arm farm)、评估系统、控制栈等。例如,他们实现了“并发RL”(concurrent RL),让机器人在执行动作的同时进行推理,而不是“停顿-观察-推理-执行”的串行模式。为了缩小仿真与真实环境的域差异,他们训练了CycleGAN将仿真图像转换为逼真的真实风格图像,使策略能在仿真中训练后较好地迁移到真实世界。

这套“机械臂农场”系统最终证明了一件事:端到端机器人学习在真实世界里不是玩具,它能work。

从抓取到通用智能:Google DeepMind前研究员揭秘人形机器人三大时代

抓取跑通之后,下一个问题自然来了:能不能同时学会多个任务?

这一时期团队展开了一批方向各异的探索:

BC-Z是其中一项代表工作——第一个大规模、多任务、语言条件化的模仿学习策略。

MT-OPT则是QT-Opt的多任务扩展,尝试把大量技能压缩进同一套神经网络权重里,探索一个网络能否同时“记住”多种行为。

另一条更有野心的路线是Learning from Play。它的出发点是:能不能让人类随心所欲地操作机器人,不设定明确目标,只是“玩”——然后用Hindsight Experience Relabeling从这些无结构的轨迹中提取有意义的经验?Ted形容这个方向在当时非常好玩。

从抓取到通用智能:Google DeepMind前研究员揭秘人形机器人三大时代

探索越多,一个问题变得越来越清晰:强化学习这条路正在遭遇收益递减。

Ted展示了一张学习曲线图:RL线确实在往右上爬,但背后是整个分布式系统的运维噩梦——一部分数据来自仿真,一部分来自真实机器人,策略checkpoint会过期,控制器代码一旦改了某个bug,之前采的数据就可能报废。“RL is Painful”。与此同时,模仿学习虽然开箱即用,但准确率始终卡在60%、70%、80%,死活上不去。

两条路都不对劲。团队进入了一种被称为“Code Yellowish”的状态——不是危及存亡的Code Red,而是“研究方向出问题了,得停下来还研究债”。

于是,团队做了一个在当时看来极其反主流的决定:停掉所有论文发表,花一年半时间,什么都不做,只攒数据。他们雇了近10名专业操作员,用远程操控(teleop)方式,在微型厨房环境里收集了几百种不同任务的高质量专家演示,最终攒下约87,000条轨迹。这在今天看来或许规模不大,但在当时是一个孤注一掷的赌注——赌的是“离线高质量数据 + 监督学习”这条被整个领域视为“第一章玩具”的路,能不能在真实机器人上scale。

之所以说反主流,是因为当时的学术信仰很明确。Ted回忆,2016年伯克利的第一门机器人学习课上,老师首先讲BC,然后就是“为什么BC不行”——compounding errors、分布偏移,结论是:BC只能解决玩具问题,其余都得靠RL。这种“BC到70%,RL才能带你到90%”的信念,几乎就是当时的铁律。

但就在那段“Code Yellowish”的沉寂期里,团队的一位基础设施大神Yao Lu把整个训练器从底层重写了一遍。重写之后,BC突然不再撞墙了——它从80%的天花板一路冲到90%、95%,而且随着真实世界数据的增加,还在继续提升。

那一刻,数据说话了。大规模模仿学习不仅能work,而且就是他们要的那张“配方”(recipe)。团队由此退出Code Yellowish,带着信心把teleop数据规模再推一个数量级,目标是在微型厨房里解决数千种任务。

这个阶段可以被总结为“slowing down to speed up”:放慢发paper的速度,还清技术债,反而为后面的爆发攒下了最稀缺的资产——不是某个算法,而是高质量、可scale的真实机器人数据。

至此,第一个时代“存在性证明”完成了它的使命。它证明了端到端学习在真实机械臂上能跑通,也证明了数据才是当时的真正瓶颈。这个认知,直接把机器人学习推进了下一个时代:基础模型时代。

基础模型时代:
借LLM的东风

2022年前后,机器人学习领域遭遇了一场来自外部的“完美风暴”——大语言模型和视觉语言模型开始展现出真正的通用性与涌现能力。对机器人研究者而言,这是一类“外星技术”——前所未有,但显然可以利用。

与此同时,机器人学习本身也正在完成一次范式迁移:从在线强化学习(机器人边运行边积累经验)转向离线大规模模仿学习(人类示范→监督学习)。这两个趋势的叠加,创造了将基础模型引入机器人领域的历史性窗口。

从抓取到通用智能:Google DeepMind前研究员揭秘人形机器人三大时代

率先亮相的成果是SayCan——语言模型与机器人之间的首次真正“握手”。

其核心设计在于将语言模型作为规划器来使用:面对一条指令,例如“把苹果放到桌上”,语言模型负责生成合理的高层次计划,而机器人则通过一个习得的价值函数来评估哪些子步骤在当前环境下是实际可行的。两者的输出会相互加权:语言模型提供常识推理,价值函数则提供落地约束,最终产生一个“既合理又可执行”的行动方案。

从抓取到通用智能:Google DeepMind前研究员揭秘人形机器人三大时代

这篇论文在时间节点上堪称完美——它在ChatGPT发布前的几个月内落地,恰好赶上大语言模型热潮席卷公众视野。SayCan的演示视频由团队成员Fei Xia亲自拍摄,制作精良,整个办公室甚至将其打印出来贴在墙上。这是第一个信号:基础模型或许真的能为机器人领域带来质的飞跃。

如果说SayCan是“用语言模型辅助机器人”,那么RT-1则迈出了更大的一步:让机器人策略本身也变成一个Transformer。

它的设计逻辑简洁而激进——将语言指令和图像观测全部token化,输出同样是离散化的机器人动作词元,整个系统以3Hz频率运行,参数量约为5000万。在包含8.7万条轨迹、覆盖约500种任务的数据集上训练后,RT-1轻松超越了此前所有基于ResNet-18的行为克隆基线。

从抓取到通用智能:Google DeepMind前研究员揭秘人形机器人三大时代

RT-1的意义不仅在于性能提升,更在于它提供了一套可复用的研究基础设施:有了这个稳定的起点,后续的新想法可以快速接入、快速验证。

既然VLM可以用来规划,那能不能用来生成数据?团队接下来推出了DIAL:利用视觉语言模型为那8.7万条轨迹重新打标签,将数百个任务的语言描述扩展到数百万条,使模型在语言泛化上更进一步。这类似于当年hindsight relabeling的思路,只不过这次是在语言空间中进行。

从抓取到通用智能:Google DeepMind前研究员揭秘人形机器人三大时代

将语言模型用作规划器或数据标注工具,都只是外围的整合。一个更激进的问题是:能否直接将视觉语言模型作为策略骨干?

这正是RT-2(视觉-语言-动作模型,VLA)所做的。研究团队将机器人动作预测重构为视觉问答任务,将VLM从外部工具转变为核心引擎,训练了从5B到55B参数规模的一系列模型。结果令人震惊:相比RT-1,涌现出大量此前从未见过的推理能力和泛化行为。

从抓取到通用智能:Google DeepMind前研究员揭秘人形机器人三大时代

回顾来看,这一跳跃本可以更早发生。Ted Xiao坦言,在RT-1阶段,大量精力花在了从零搭建各种模块(视觉编码器、token压缩、条件注意力等)上,而RT-2的逻辑恰恰相反——直接信任VLM,做最小化的适配。这种“全部拿来,最小改动”的思路,或许本可提前一年付诸实施。

尝到规模化的甜头后,团队开始思考更激进的扩展方向:数据不仅可以跨任务,能不能跨机器人形态?

Open X-Embodiment项目联合了全球34家研究机构,将各自收集的机器人数据整合成统一格式并开源。训练结果表明,在一种机器人上习得的技能,确实可以迁移到另一种机器人上——尤其是那些与语言描述相关的行为,例如“推到旁边”、“放入容器”等。这是跨本体泛化的早期存在性证明。

从抓取到通用智能:Google DeepMind前研究员揭秘人形机器人三大时代

有了RT-1和RT-2这样的基座,后续研究变得像搭积木一样快。团队很快尝试了各种动作表征:边界框、分割掩码、思维链、affordance、第一人称姿态追踪……以前需要从零造轮子的算法探索,现在可以基于一个扎实的基线快速迭代。Ted说,这就是“临界质量”的魔力——一旦起点足够好,新想法的验证速度会指数级加快。基础模型的时代,本质上是用外部的智能放大器,解了机器人学中“从零造一切”的困局。

从抓取到通用智能:Google DeepMind前研究员揭秘人形机器人三大时代

从8.7万条人工示范轨迹,到VLA的涌现推理,再到跨形态的知识迁移——基础模型时代的核心洞见,是停止把机器人当作一个孤立系统来精心调教,而是开始借用语言与视觉领域一切可用的智识积累,以最小的代价将其对接到物理世界。

这个时代留下的问题,正是下一个时代——规模化时代——试图回答的:当数据和模型都足够大时,机器人能学到什么?

Scaling时代:all in scaling

进入第三个时代,导火索是VLA证明了这条路能走通,但天花板还远。于是世界开始超大规模Scaling——参数、数据、本体复杂度,同时爆发。

Ted把这一阶段称为Scaling。如果说上一个时代是借别人的智能放大器,这个时代就是往各个维度疯狂加码,直到涌现出新东西。

这一时代,DeepMind的第一个标志性工作是2025年3月发布的Gemini Robotics。从RT-2到Gemini Robotics,中间隔了一年半,但外部生态已经天翻地覆。Physical Intelligence、Generalist AI等创业公司成立,资本涌入,所有人都意识到:VLA是范式,现在该拼的是谁能把它scale到物理极限。

从抓取到通用智能:Google DeepMind前研究员揭秘人形机器人三大时代

硬件端首先发生了变化。斯坦福的ALOHA平台带来了关键洞察:真正高频、高质量的数据,才能解锁灵巧操作的极限。双臂系统、高频率控制、直觉式遥操作,能做到以前单臂移动平台根本想象不到的动作。Google DeepMind团队很快拥抱了更复杂的本体——从ALOHA到人形机器人,动作空间的复杂度远超当年的Kuka。

Gemini Robotics的主干直接fork自Gemini 2.0。Ted评价,Gemini在多模态理解上一直很强,而机器人团队这次拿到的数据量,已经远超当年一年半攒下的8.7万条轨迹。规模一上来,第一件事就是突破RT-2的“黑箱”思路。

RT-2时代,团队把VLM当黑箱搬进来,没有细看内部。但Gemini Robotics团队有机会直接看“香肠厂里面是怎么做的”——他们发现,外界抱怨VLM缺乏物理常识、空间推理、时间推理,这些问题在Gemini内部是可以被定向解决的。

于是有了Gemini Robotics ER(具身推理)。这不是一个机器人策略,而是一个被专门增强过具身推理能力的VLM:它能做3D物体检测、2D指向、预测抓取角度。先把视觉语言模型的具身推理能力补齐,再把它喂给下游的VLA策略,机器人的泛化性和灵巧度自然上了一个台阶。

随后发布的Gemini Robotics 1.5则将推理时代的红利引入具身智能。彼时,DeepSeek R1、OpenAI o1等模型已让业界意识到:在推理阶段引入“思考”过程,能够显著提升语言模型的表现。Gemini Robotics 1.5将这一范式移植到机器人领域:策略在执行前先用自然语言“想一想”,将长时域任务分解为短时域指令,再逐步执行。

从抓取到通用智能:Google DeepMind前研究员揭秘人形机器人三大时代

更值得关注的是动作迁移能力:同一个神经网络,可以将在某种机器人上采集的运动经验,零样本迁移到运动学截然不同的其他平台——包括仿人机器人、Franka机械臂和Aloha双臂系统。这与早期“跨具身训练”时代将多个形态相近的单臂机器人数据合并训练,已是本质上的不同。

Scaling时代并非单一方向的线性推进,而是多个维度并行爆发。

从抓取到通用智能:Google DeepMind前研究员揭秘人形机器人三大时代

模型性能维度,以Pi 0.6为代表的后训练范式逐渐成形:先训练一个泛化能力强的通用策略,再针对长时域、高精度任务进行专项微调。

从抓取到通用智能:Google DeepMind前研究员揭秘人形机器人三大时代

评估体系维度,随着模型声称的能力日益宽泛,评估本身成为一大挑战。当前涌现出多种解法:基于仿真的Sim-to-Real评估、以RoboArena为代表的分布式跨机构评估,以及利用世界模型进行策略验证的方法。

在数据层面,通用型AI(Generalist AI)使用五十万小时的交互数据进行预训练,其中第一人称人类数据(egocentric)迅速成为研究热点,NVIDIA、Pi 和 Georgia Tech 等机构都在积极投入。这些研究显示,大规模采集人类第一视角的操作数据,并开发能够有效处理此类数据的训练策略,是突破机器人数据瓶颈的关键路径。

从抓取到通用智能:Google DeepMind前研究员揭秘人形机器人三大时代

在商业化和数据飞轮方面,特斯拉式的闭环逻辑开始在机器人领域显现:当机器人真正部署到实际场景后,数据采集成本可以通过服务本身的价值来分摊,而长尾罕见场景的数据也会随之自然积累。

Ted 认为,这个时代最迷人的并非单一技术突破,而是研究方向的“熵”急剧增长。社区不再局限于单一技术路径,而是多线并进:

  • World Models / Video Action Models:利用生成式模型理解物理世界;
  • 人类数据与不依赖机器人本体的数据:包括 egocentric 视频和传感器化的人类操作;
  • 可验证奖励训练:将 NLP 中的 RLHF / verifiable reward 逻辑引入物理世界;
  • Locomotion vs. Manipulation 的哲学分野。

从抓取到通用智能:Google DeepMind前研究员揭秘人形机器人三大时代

尽管当前大多数讨论集中在操控(Manipulation)领域,但运动控制(Locomotion)领域同样经历了一场静悄悄的革命。能够跳舞、完成后空翻的机器人已接近“商品化”水平,其背后是一套与操控截然不同的方法论:零样本 Sim-to-Real 迁移、在线强化学习和小型网络。

这一对比引出了一个深刻的隐喻:操控更像是大脑皮层的工作——需要示例学习、专家数据和监督信号;而运动控制则更像是小脑或脊髓的工作——反射性、本能性的。如何将两者融合,并与长时域推理能力三者合一,是当前机器人学习领域最核心的开放问题之一。

机器人的 ChatGPT 时刻还没到,但拼图正在完整

访谈最后,主持人问:机器人的 ChatGPT 时刻什么时候来?

Ted 将其拆解为两部分。在产品层面,它不会是一个简单的演示,而是一个真正通用、消费级的操作系统,像当年的 ChatGPT 一样,让普通人感到“好用、惊喜、离不开”。他认为这可能在一两年内发生,也可能需要更久——更像自动驾驶从爆发到落地的那十年。

在技术层面,没有单一突破,而是多个拼图同时到位:架构、视频动作模型、高级全身反应系统、后训练和数据飞轮。Ted 的个人赌注押在视频动作模型和第一人称人类数据上。

更多内容请参见原视频。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/33961

(0)
上一篇 2天前
下一篇 2天前

相关推荐

  • 国产GPU生死线:从财报看技术内卷下的商业闭环真相

    关键词:国产GPU、CUDA兼容、财务风险、生态依附、内卷竞争 对于深耕于深度学习框架底层、CUDA算子优化与芯片微架构设计一线的开发者而言,评估一家国产GPU公司,往往习惯于紧盯其宣称的算力峰值、显存带宽或对Triton/vLLM等新兴框架的支持度。 然而,商业世界的运行逻辑并非如此。在“百模大战”与Scaling Law主导的算力狂飙时代,纯粹的技术指标…

    2026年4月7日
    63100
  • 智元机器人量产破5000台:具身智能商业化进程加速,三大产线全面落地工业与消费场景

    智元机器人近日宣布第5000台通用具身机器人正式量产下线,这一里程碑事件不仅标志着该公司在短短三年内实现了从创业到规模化生产的跨越,更折射出中国具身智能产业商业化进程的显著提速。作为由“天才少年”彭志辉创立的硬核科技企业,智元以5000台的量产规模,提前触及了行业机构对2025年中国人形机器人商用出货量的预测值,预示着具身智能的量产元年可能比预期更早到来。 …

    2025年12月9日
    48500
  • HyperBookLM:开源研究助手,用Web Agent构建NotebookLM替代方案

    当下的研究流程常常是混乱的。 你需要在多个标签页中打开博客链接,将 PDF 下载到本地,而笔记则散落在 Notion 或 Google Docs 等不同工具里。现有的 AI 工具通常一次只能处理一个信息来源。Google 的 NotebookLM 在一定程度上缓解了这个问题,但它是一个封闭、受限且对开发者不友好的系统。 这正是 HyperBookLM 的价值…

    2026年1月18日
    61200
  • AI重构游戏开发范式:从引擎集成到全生命周期赋能的技术演进

    在上海举办的2025 Unity开发者大会上,”AI+游戏”的融合趋势得到了系统性展示,标志着游戏产业正经历从辅助工具到核心引擎的技术范式转移。这一变革不仅体现在开发效率的量化提升,更深入到创意生成、资产制作、运维管理等全链条环节,预示着游戏行业将迎来新一轮生产力革命。 从技术演进路径看,AI在游戏领域的应用已从早期的概念验证阶段,进…

    2025年11月1日
    51000
  • ArchAgent:AI仅用两天设计出性能提升5.3%的缓存策略,颠覆传统硬件设计

    关键词:AI 驱动硬件设计、缓存替换策略、大语言模型、进化算法、计算机架构 一个完全由 AI 驱动的系统,在没有任何人类干预的情况下,仅用两天时间就设计出了一款比现有最优方案性能提升 5.3% 的缓存替换策略——而人类专家团队完成同样的工作通常需要数月之久。 ArchAgent: Agentic AI-driven Computer Architecture…

    2026年3月14日
    39300