VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

具身智能领域,视觉-语言-动作(VLA)模型正成为连接大语言模型与物理世界的关键桥梁。近期,Physical Intelligence发布的π*0.6论文与清华大学星动纪元团队的iRe-VLA研究,共同揭示了VLA模型通过在线强化学习实现自我改进的技术路径,标志着该领域从单纯模仿学习向自主探索的范式转变。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA模型的核心挑战在于如何将预训练的视觉-语言大模型(如BLIP-2、GPT-4V)的能力有效迁移到机器人控制任务中。传统方法主要依赖监督微调(SFT),通过人类示范数据教会机器人执行特定动作。然而,这种方法的局限性显而易见:机器人只能复现已有数据中的行为模式,面对未知环境或复杂任务时缺乏适应能力。正如π*0.6论文所强调的,模仿学习能让机器人完成基本动作,但实现高鲁棒性、持久性的工作能力,必须引入强化学习的探索机制。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

强化学习在VLA模型中的应用面临三大核心难题。首先是环境差异问题:与聊天机器人基于离线数据集的训练不同,物理机器人需要在实时环境中探索,任务周期长、奖励稀疏(通常只有完成整套动作才能获得正向反馈),导致学习效率低下。其次是模型稳定性问题:直接对数十亿参数的VLA模型进行在线强化学习,极易引发灾难性遗忘或训练崩溃,使模型性能甚至倒退至微调前水平。最后是算力约束问题:在本地机器人控制器上对大规模模型进行全梯度更新,远超当前硬件算力极限。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

针对这些挑战,行业出现了三种技术路径。外挂式干预方案(如V-GPS、DSRL)通过训练辅助价值函数或优化扩散模型输入噪声来引导冻结的VLA模型,虽能保持模型稳定,但未触及模型本质改进。暴力美学方案(如VLAC)直接使用PPO等算法全量微调VLA,虽理论完整但面临稳定性与算力双重压力。而星动纪元iRe-VLA与π*0.6代表的第三种路径——探索到内化的循环迭代机制——正在成为最具前景的解决方案。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

iRe-VLA的创新之处在于其两阶段交替学习架构。第一阶段,模型冻结VLM主干参数,仅训练轻量级动作输出层(Action Head)进行在线强化学习探索。这种设计巧妙规避了大模型直接强化学习的不稳定性,同时大幅降低计算需求,使单张4090显卡即可支持训练。机器人通过试错积累成功轨迹数据,形成初步的任务解决能力。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

第二阶段则转向监督学习内化。模型解冻VLM主干,利用第一阶段收集的高价值轨迹数据对整个模型(包括LoRA适配参数)进行微调,将探索获得的能力固化为模型的固有知识。这种动静结合的策略既保证了探索阶段的稳定性,又实现了能力的内化升华,形成“探索-内化-再探索”的良性循环。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

值得注意的是,iRe-VLA在模型架构设计上体现了精妙的工程思维。其将VLA模型分解为VLM主干(大脑)和动作输出层(四肢),前者负责感知与理解,后者专司控制与执行。通过LoRA技术对主干进行参数高效微调,既保留了预训练模型的世界知识,又实现了任务特定适应。这种模块化设计为后续迭代升级提供了灵活框架。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

π*0.6论文引用了iRe-VLA工作,表明中美研究团队在VLA强化学习方向上形成了技术共鸣。两者都认识到单纯模仿学习的局限,都致力于通过在线交互实现模型自主进化。不同的是,π*0.6更侧重于迭代式强化学习的理论框架,而iRe-VLA则提供了具体的工程实现方案。这种互补关系推动了整个领域的技术进步。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

从技术演进趋势看,VLA+在线RL正成为具身智能的核心研究方向。其价值不仅在于提升单个任务的完成率,更在于建立机器人持续学习、自主适应的通用能力框架。随着算力提升和算法优化,未来VLA模型有望实现从特定任务专家到通用物理世界智能体的跨越。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

当前研究仍面临诸多挑战。如何设计更高效的探索策略以减少试错成本?如何平衡模型稳定性与学习效率?如何将单任务能力泛化为多任务通用能力?这些问题的解决需要算法、硬件、数据的协同突破。但可以确定的是,以iRe-VLA和π*0.6为代表的技术路径,已经为VLA模型的强化学习应用开辟了切实可行的道路。

— 图片补充 —

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/7128

(0)
上一篇 2025年12月12日 上午11:01
下一篇 2025年12月12日 下午12:30

相关推荐

  • GLM-5引领中国AI成熟期:从炫技到系统工程的跨越

    我们每天都在见证「全球大模型第一股」智谱的历史新高。 2026 年的春节档,注定将被写入中国 AI 的发展史。 过去半个月,AI 社区被两颗「超新星」彻底点燃:一颗是字节跳动发布的 Seedance 2.0,它用震撼的视频生成能力横扫了全球社交网络,代表了 AI 在感性与创意维度的大爆发;而另一颗,则是这几天让开发者们彻夜未眠的智谱 GLM-5。 可以说,S…

    2026年2月13日
    60500
  • OpenAI资本重组与微软战略合作新篇章:从非营利到公益公司的转型与AI产业格局重塑

    近期,OpenAI完成了其发展历程中一次关键性的资本重组,这一变革不仅重塑了其组织架构,更标志着与微软的战略合作进入了全新阶段。OpenAI的非营利实体正式更名为OpenAI基金会(OpenAI Foundation),并持有约1300亿美元的营利部门股权,而营利部门则改制为一家公益性公司(Public Benefit Corporation),名为Open…

    2025年11月2日
    36200
  • OpenAI稀疏模型研究:以结构简化推动神经网络可解释性新突破

    在人工智能领域,模型的可解释性一直是制约技术深度应用与安全发展的关键瓶颈。近日,OpenAI发布了一项关于稀疏模型训练方法的研究论文,旨在通过改变神经网络的结构特性,为理解大语言模型的内部工作机制提供新的路径。这一研究不仅体现了OpenAI在模型透明度方面的持续探索,也为整个AI社区的可解释性研究带来了重要启示。 传统的大语言模型(如GPT系列)通常采用密集…

    2025年11月15日
    33100
  • AI颠覆编程:英伟达VibeTensor全栈系统,连论文都100%由AI生成

    前两天,Node.js 之父 Ryan Dahl 在 X 上断言:「人类编写代码的时代已经结束了。」该帖引发广泛讨论,浏览量已超过 700 万。现在,一个有力的证明出现了。 近日,英伟达杰出工程师许冰(Bing Xu)在 GitHub 上开源了新项目 VibeTensor,展示了 AI 在编程方面的强大能力。 从名字可以看出,这是「氛围编程」(Vibe Co…

    2026年1月23日
    45000
  • 谷歌“TorchTPU”战略:软件生态破局与AI算力格局重构

    谷歌近期推进的“TorchTPU”战略行动,标志着AI算力市场竞争进入深水区。这项计划的核心目标是通过优化PyTorch框架在谷歌自研TPU芯片上的运行效率,打破英伟达CUDA生态长期形成的技术壁垒。从表面看,这是谷歌在硬件兼容性上的技术补课;深入分析则揭示了一场围绕软件生态主导权的商业围剿。作为PyTorch的主要维护者,Meta的深度参与更让这场博弈呈现…

    2025年12月18日
    37200

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注