VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

具身智能领域,视觉-语言-动作(VLA)模型正成为连接大语言模型与物理世界的关键桥梁。近期,Physical Intelligence发布的π*0.6论文与清华大学星动纪元团队的iRe-VLA研究,共同揭示了VLA模型通过在线强化学习实现自我改进的技术路径,标志着该领域从单纯模仿学习向自主探索的范式转变。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA模型的核心挑战在于如何将预训练的视觉-语言大模型(如BLIP-2、GPT-4V)的能力有效迁移到机器人控制任务中。传统方法主要依赖监督微调(SFT),通过人类示范数据教会机器人执行特定动作。然而,这种方法的局限性显而易见:机器人只能复现已有数据中的行为模式,面对未知环境或复杂任务时缺乏适应能力。正如π*0.6论文所强调的,模仿学习能让机器人完成基本动作,但实现高鲁棒性、持久性的工作能力,必须引入强化学习的探索机制。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

强化学习在VLA模型中的应用面临三大核心难题。首先是环境差异问题:与聊天机器人基于离线数据集的训练不同,物理机器人需要在实时环境中探索,任务周期长、奖励稀疏(通常只有完成整套动作才能获得正向反馈),导致学习效率低下。其次是模型稳定性问题:直接对数十亿参数的VLA模型进行在线强化学习,极易引发灾难性遗忘或训练崩溃,使模型性能甚至倒退至微调前水平。最后是算力约束问题:在本地机器人控制器上对大规模模型进行全梯度更新,远超当前硬件算力极限。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

针对这些挑战,行业出现了三种技术路径。外挂式干预方案(如V-GPS、DSRL)通过训练辅助价值函数或优化扩散模型输入噪声来引导冻结的VLA模型,虽能保持模型稳定,但未触及模型本质改进。暴力美学方案(如VLAC)直接使用PPO等算法全量微调VLA,虽理论完整但面临稳定性与算力双重压力。而星动纪元iRe-VLA与π*0.6代表的第三种路径——探索到内化的循环迭代机制——正在成为最具前景的解决方案。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

iRe-VLA的创新之处在于其两阶段交替学习架构。第一阶段,模型冻结VLM主干参数,仅训练轻量级动作输出层(Action Head)进行在线强化学习探索。这种设计巧妙规避了大模型直接强化学习的不稳定性,同时大幅降低计算需求,使单张4090显卡即可支持训练。机器人通过试错积累成功轨迹数据,形成初步的任务解决能力。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

第二阶段则转向监督学习内化。模型解冻VLM主干,利用第一阶段收集的高价值轨迹数据对整个模型(包括LoRA适配参数)进行微调,将探索获得的能力固化为模型的固有知识。这种动静结合的策略既保证了探索阶段的稳定性,又实现了能力的内化升华,形成“探索-内化-再探索”的良性循环。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

值得注意的是,iRe-VLA在模型架构设计上体现了精妙的工程思维。其将VLA模型分解为VLM主干(大脑)和动作输出层(四肢),前者负责感知与理解,后者专司控制与执行。通过LoRA技术对主干进行参数高效微调,既保留了预训练模型的世界知识,又实现了任务特定适应。这种模块化设计为后续迭代升级提供了灵活框架。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

π*0.6论文引用了iRe-VLA工作,表明中美研究团队在VLA强化学习方向上形成了技术共鸣。两者都认识到单纯模仿学习的局限,都致力于通过在线交互实现模型自主进化。不同的是,π*0.6更侧重于迭代式强化学习的理论框架,而iRe-VLA则提供了具体的工程实现方案。这种互补关系推动了整个领域的技术进步。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

从技术演进趋势看,VLA+在线RL正成为具身智能的核心研究方向。其价值不仅在于提升单个任务的完成率,更在于建立机器人持续学习、自主适应的通用能力框架。随着算力提升和算法优化,未来VLA模型有望实现从特定任务专家到通用物理世界智能体的跨越。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

当前研究仍面临诸多挑战。如何设计更高效的探索策略以减少试错成本?如何平衡模型稳定性与学习效率?如何将单任务能力泛化为多任务通用能力?这些问题的解决需要算法、硬件、数据的协同突破。但可以确定的是,以iRe-VLA和π*0.6为代表的技术路径,已经为VLA模型的强化学习应用开辟了切实可行的道路。

— 图片补充 —

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/7128

(0)
上一篇 2025年12月12日 上午11:01
下一篇 2025年12月12日 下午12:30

相关推荐

  • AI智能体重塑学术评审:从审稿辅助到研究范式变革的深度剖析

    在人工智能技术飞速发展的当下,学术论文评审体系正面临前所未有的挑战与机遇。随着全球顶级学术会议如ICLR、CVPR等陆续出台关于大模型使用的审稿规范,AI在学术评审中的角色已从理论探讨进入实践应用阶段。然而,规范与现实之间存在着显著差距——即使在ICLR 2026这样实施“最严管控规则”的会议上,仍有高达五分之一的审稿意见被证实由大模型一键生成。这一现象不仅…

    2025年11月25日
    16200
  • 谷歌Gemini生态全面升级:Deep Research智能体与Interactions API重塑AI研究范式

    近日,谷歌在AI领域展开了一系列重要更新,不仅正式发布了增强版的Gemini Deep Research智能体,还配套推出了DeepSearchQA基准测试集以及全新的Interactions API。这一系列动作标志着谷歌正在加速构建更强大、更完整的Gemini生态系统,旨在提升AI在复杂信息检索与分析任务中的表现,特别是在减少幻觉、增强多步骤推理能力方面…

    2025年12月12日
    19600
  • 边缘智能体新突破:3B小模型函数调用准确率达88.22%,超越轻量模型近70%

    关键词:Small Language Models 小语言模型、 Function Calling 函数调用、Edge Devices 边缘设备、Direct Preference Optimization 直接偏好优化、 Hybrid Fine-Tuning 混合微调 近期,一项名为 《TinyLLM: Evaluation and Optimizatio…

    2026年2月4日
    6700
  • 从零到一:HuggingFace超长技术博客揭示LLM训练实战全流程

    近期,HuggingFace发布了一份超过200页的技术博客,系统性地分享了训练先进大语言模型(LLM)的端到端经验。这份博客的核心价值在于直面LLM开发过程中的「混乱现实」,坦诚记录了哪些方法有效、哪些会失败,以及如何应对实际工程中遇到的陷阱。内容基于团队的实际项目经验,特别是他们近期使用384块H100 GPU训练3B参数模型SmolLM3的完整过程。 …

    2025年11月9日
    19800
  • 阿里千问3.5-Plus重磅开源:原生多模态、性能倒挂、价格屠夫,开源大模型迎来王炸级突破

    前阵子,各大模型厂商纷纷迭代产品,功能之多令人眼花缭乱。 就在大家以为临近春节,AI圈已无新牌可打时,阿里通义千问却毫无预兆地甩出了一对“王炸”——全新一代大模型 Qwen 3.5-Plus 正式重磅开源。 该模型在多模态理解、复杂推理、编程及Agent等核心维度上,不仅全面领先于同级开源模型,更在多项基准测试中足以媲美顶级闭源模型。 此次发布的核心亮点如下…

    2026年2月16日
    15400

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注