VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

具身智能领域,视觉-语言-动作(VLA)模型正成为连接大语言模型与物理世界的关键桥梁。近期,Physical Intelligence发布的π*0.6论文与清华大学星动纪元团队的iRe-VLA研究,共同揭示了VLA模型通过在线强化学习实现自我改进的技术路径,标志着该领域从单纯模仿学习向自主探索的范式转变。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA模型的核心挑战在于如何将预训练的视觉-语言大模型(如BLIP-2、GPT-4V)的能力有效迁移到机器人控制任务中。传统方法主要依赖监督微调(SFT),通过人类示范数据教会机器人执行特定动作。然而,这种方法的局限性显而易见:机器人只能复现已有数据中的行为模式,面对未知环境或复杂任务时缺乏适应能力。正如π*0.6论文所强调的,模仿学习能让机器人完成基本动作,但实现高鲁棒性、持久性的工作能力,必须引入强化学习的探索机制。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

强化学习在VLA模型中的应用面临三大核心难题。首先是环境差异问题:与聊天机器人基于离线数据集的训练不同,物理机器人需要在实时环境中探索,任务周期长、奖励稀疏(通常只有完成整套动作才能获得正向反馈),导致学习效率低下。其次是模型稳定性问题:直接对数十亿参数的VLA模型进行在线强化学习,极易引发灾难性遗忘或训练崩溃,使模型性能甚至倒退至微调前水平。最后是算力约束问题:在本地机器人控制器上对大规模模型进行全梯度更新,远超当前硬件算力极限。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

针对这些挑战,行业出现了三种技术路径。外挂式干预方案(如V-GPS、DSRL)通过训练辅助价值函数或优化扩散模型输入噪声来引导冻结的VLA模型,虽能保持模型稳定,但未触及模型本质改进。暴力美学方案(如VLAC)直接使用PPO等算法全量微调VLA,虽理论完整但面临稳定性与算力双重压力。而星动纪元iRe-VLA与π*0.6代表的第三种路径——探索到内化的循环迭代机制——正在成为最具前景的解决方案。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

iRe-VLA的创新之处在于其两阶段交替学习架构。第一阶段,模型冻结VLM主干参数,仅训练轻量级动作输出层(Action Head)进行在线强化学习探索。这种设计巧妙规避了大模型直接强化学习的不稳定性,同时大幅降低计算需求,使单张4090显卡即可支持训练。机器人通过试错积累成功轨迹数据,形成初步的任务解决能力。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

第二阶段则转向监督学习内化。模型解冻VLM主干,利用第一阶段收集的高价值轨迹数据对整个模型(包括LoRA适配参数)进行微调,将探索获得的能力固化为模型的固有知识。这种动静结合的策略既保证了探索阶段的稳定性,又实现了能力的内化升华,形成“探索-内化-再探索”的良性循环。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

值得注意的是,iRe-VLA在模型架构设计上体现了精妙的工程思维。其将VLA模型分解为VLM主干(大脑)和动作输出层(四肢),前者负责感知与理解,后者专司控制与执行。通过LoRA技术对主干进行参数高效微调,既保留了预训练模型的世界知识,又实现了任务特定适应。这种模块化设计为后续迭代升级提供了灵活框架。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

π*0.6论文引用了iRe-VLA工作,表明中美研究团队在VLA强化学习方向上形成了技术共鸣。两者都认识到单纯模仿学习的局限,都致力于通过在线交互实现模型自主进化。不同的是,π*0.6更侧重于迭代式强化学习的理论框架,而iRe-VLA则提供了具体的工程实现方案。这种互补关系推动了整个领域的技术进步。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

从技术演进趋势看,VLA+在线RL正成为具身智能的核心研究方向。其价值不仅在于提升单个任务的完成率,更在于建立机器人持续学习、自主适应的通用能力框架。随着算力提升和算法优化,未来VLA模型有望实现从特定任务专家到通用物理世界智能体的跨越。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

当前研究仍面临诸多挑战。如何设计更高效的探索策略以减少试错成本?如何平衡模型稳定性与学习效率?如何将单任务能力泛化为多任务通用能力?这些问题的解决需要算法、硬件、数据的协同突破。但可以确定的是,以iRe-VLA和π*0.6为代表的技术路径,已经为VLA模型的强化学习应用开辟了切实可行的道路。

— 图片补充 —

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/7128

(0)
上一篇 2025年12月12日 上午11:01
下一篇 2025年12月12日 下午12:30

相关推荐

  • 嵌套学习与记忆熊:AI记忆革命如何重塑大模型进化路径

    近期,Google Research发表的《Nested Learning: The Illusion of Deep Learning Architectures》论文在业界引发广泛关注,被普遍视为2017年《Attention is All You Need》的“精神续作”。这篇论文之所以获得如此高的评价,关键在于它提出了一种全新的机器学习范式——嵌套学…

    2025年12月3日
    20500
  • 麦肯锡2025AI报告深度解析:AI普及浪潮下的效率幻象与红利鸿沟

    麦肯锡最新发布的《The state of AI in 2025》报告,基于对全球近2000家组织的调研数据,揭示了当前人工智能在企业应用中的复杂图景。这份报告不仅呈现了AI技术的快速普及,更深刻剖析了从“使用”到“见效”之间的巨大鸿沟,为企业管理者提供了关键的战略洞察。 **一、普及率与回报率的显著落差:效率提升≠盈利增长** 报告中最引人注目的数据对比是…

    2025年11月10日
    29800
  • RICE视觉基座:从全局语义到区域感知的视觉预训练范式演进

    在计算机视觉领域,预训练基座模型的演进正推动着多模态智能的边界。近日,格灵深瞳公司灵感团队发布的视觉模型基座RICE(MVT v1.5)在ICCV25会议上获得Highlight荣誉,标志着视觉表征学习从全局语义理解向细粒度区域感知的重要转变。这一突破不仅刷新了多项视觉任务榜单,更揭示了视觉预训练技术发展的深层逻辑。 MVT系列的发展轨迹清晰地展现了视觉预训…

    2025年10月29日
    20300
  • Google 刚发布 Gemini 3 Flash,说实话,AI 的经济模型被彻底改写了

    Google 刚发布了 Gemini 3 Flash,老实说?AI 经济学被改写了。 一款“快”模型如何重画价格-性能曲线 你今天早上打开 Gemini app,总觉得哪儿不一样。更快,更锐利。你可能都没注意到更新提示。 Google 把默认模型整个换了。全球范围。你睡觉的时候它就完成了。 这可不常见。公司一般不会一夜之间给几百万个应用换“发动机”。通常会先…

    2026年1月3日
    21400
  • 斯坦福突破性研究:无需干细胞,通过酶抑制剂实现关节软骨再生

    斯坦福突破性研究:无需干细胞,通过酶抑制剂实现关节软骨再生 斯坦福医学院一项关于“返老还童”的新研究,正引发广泛关注。 这项研究聚焦于随年龄增长而变得脆弱的关节,其终极目标是:不依赖昂贵的干细胞或置换手术,仅通过口服或注射药物即可实现软骨再生。 成年关节软骨的修复通常面临“不可能三角”:* 基础差:软骨细胞数量少且难以分裂繁殖。* 无外部供给:软骨组织缺乏血…

    2026年1月25日
    20900

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注