VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

具身智能领域,视觉-语言-动作(VLA)模型正成为连接大语言模型与物理世界的关键桥梁。近期,Physical Intelligence发布的π*0.6论文与清华大学星动纪元团队的iRe-VLA研究,共同揭示了VLA模型通过在线强化学习实现自我改进的技术路径,标志着该领域从单纯模仿学习向自主探索的范式转变。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA模型的核心挑战在于如何将预训练的视觉-语言大模型(如BLIP-2、GPT-4V)的能力有效迁移到机器人控制任务中。传统方法主要依赖监督微调(SFT),通过人类示范数据教会机器人执行特定动作。然而,这种方法的局限性显而易见:机器人只能复现已有数据中的行为模式,面对未知环境或复杂任务时缺乏适应能力。正如π*0.6论文所强调的,模仿学习能让机器人完成基本动作,但实现高鲁棒性、持久性的工作能力,必须引入强化学习的探索机制。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

强化学习在VLA模型中的应用面临三大核心难题。首先是环境差异问题:与聊天机器人基于离线数据集的训练不同,物理机器人需要在实时环境中探索,任务周期长、奖励稀疏(通常只有完成整套动作才能获得正向反馈),导致学习效率低下。其次是模型稳定性问题:直接对数十亿参数的VLA模型进行在线强化学习,极易引发灾难性遗忘或训练崩溃,使模型性能甚至倒退至微调前水平。最后是算力约束问题:在本地机器人控制器上对大规模模型进行全梯度更新,远超当前硬件算力极限。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

针对这些挑战,行业出现了三种技术路径。外挂式干预方案(如V-GPS、DSRL)通过训练辅助价值函数或优化扩散模型输入噪声来引导冻结的VLA模型,虽能保持模型稳定,但未触及模型本质改进。暴力美学方案(如VLAC)直接使用PPO等算法全量微调VLA,虽理论完整但面临稳定性与算力双重压力。而星动纪元iRe-VLA与π*0.6代表的第三种路径——探索到内化的循环迭代机制——正在成为最具前景的解决方案。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

iRe-VLA的创新之处在于其两阶段交替学习架构。第一阶段,模型冻结VLM主干参数,仅训练轻量级动作输出层(Action Head)进行在线强化学习探索。这种设计巧妙规避了大模型直接强化学习的不稳定性,同时大幅降低计算需求,使单张4090显卡即可支持训练。机器人通过试错积累成功轨迹数据,形成初步的任务解决能力。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

第二阶段则转向监督学习内化。模型解冻VLM主干,利用第一阶段收集的高价值轨迹数据对整个模型(包括LoRA适配参数)进行微调,将探索获得的能力固化为模型的固有知识。这种动静结合的策略既保证了探索阶段的稳定性,又实现了能力的内化升华,形成“探索-内化-再探索”的良性循环。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

值得注意的是,iRe-VLA在模型架构设计上体现了精妙的工程思维。其将VLA模型分解为VLM主干(大脑)和动作输出层(四肢),前者负责感知与理解,后者专司控制与执行。通过LoRA技术对主干进行参数高效微调,既保留了预训练模型的世界知识,又实现了任务特定适应。这种模块化设计为后续迭代升级提供了灵活框架。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

π*0.6论文引用了iRe-VLA工作,表明中美研究团队在VLA强化学习方向上形成了技术共鸣。两者都认识到单纯模仿学习的局限,都致力于通过在线交互实现模型自主进化。不同的是,π*0.6更侧重于迭代式强化学习的理论框架,而iRe-VLA则提供了具体的工程实现方案。这种互补关系推动了整个领域的技术进步。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

从技术演进趋势看,VLA+在线RL正成为具身智能的核心研究方向。其价值不仅在于提升单个任务的完成率,更在于建立机器人持续学习、自主适应的通用能力框架。随着算力提升和算法优化,未来VLA模型有望实现从特定任务专家到通用物理世界智能体的跨越。

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

当前研究仍面临诸多挑战。如何设计更高效的探索策略以减少试错成本?如何平衡模型稳定性与学习效率?如何将单任务能力泛化为多任务通用能力?这些问题的解决需要算法、硬件、数据的协同突破。但可以确定的是,以iRe-VLA和π*0.6为代表的技术路径,已经为VLA模型的强化学习应用开辟了切实可行的道路。

— 图片补充 —

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破

VLA强化学习新范式:从星动纪元iRe-VLA到π*0.6的迭代式突破


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/7128

(0)
上一篇 2025年12月12日 上午11:01
下一篇 2025年12月12日 下午12:30

相关推荐

  • 2025人工智能年度榜单深度解析:评选机制、行业趋势与未来展望

    随着人工智能技术从实验室走向产业化,行业竞争格局日益清晰,权威评选成为衡量企业实力、产品创新与人物贡献的重要标尺。量子位主办的「2025人工智能年度榜单」已进入第八个年头,这不仅是一个简单的奖项申报活动,更是对中国AI产业发展脉络的年度梳理与前瞻性洞察。 从评选维度来看,本届榜单延续了企业、产品、人物三大核心板块,但细分为五类奖项,体现了对产业生态的精细化观…

    2025年11月13日
    7400
  • Lumina-DiMOO:离散扩散架构重塑多模态统一模型,开启原生智能新纪元

    上海人工智能实验室近期推出的Lumina-DiMOO,标志着多模态人工智能领域迎来了一次架构层面的根本性变革。这款基于离散扩散建模(Discrete Diffusion Modeling)的扩散语言模型,首次在同一框架内实现了文本→图像、图像→图像、图像→文本的全栈能力闭环,打破了传统多模态任务间的技术壁垒。 **论文信息** 论文标题:Lumina-DiM…

    2025年11月16日
    8100
  • 从TNT到AutoGLM:开源GUI Agent如何重塑人机交互与隐私边界

    在科技发展的长河中,某些超前的构想往往因时代局限而被视为激进的赌博,却在未来某个节点以更成熟的形式重新定义行业。七年前,锤子科技推出的TNT(Touch & Talk)系统,试图通过触控与语音结合的方式“重新定义个人电脑”,却因当时AI技术的不成熟而沦为科技圈的“永生梗”。然而,在2025年的今天,随着大模型与智能体技术的爆发,我们惊讶地发现:TNT…

    2025年12月10日
    7900
  • 智源研究院:以“安卓”模式破局具身智能数据孤岛,引领行业生态共建新范式

    在2025年智源具身智能Open Day活动中,一场被业界称为“具身武林大会”的盛会,罕见地聚集了银河通用、智元、星海图、自变量、原力灵机、加速进化、北京人形、星源智、优必选、因时、软通天擎等机器人领域的主要厂商代表。这一现象背后,折射出当前具身智能产业面临的核心挑战与转型契机。 智源研究院院长王仲远在会上提出的“数据贡献与模型效用正向关联”机制,直指行业长…

    2025年11月21日
    8200
  • HeyGen ARR破亿背后的AI时代运营哲学:从“稳定地基”到“驾驭浪潮”的范式革命

    近日,AI视频生成领域的明星公司HeyGen宣布其年化经常性收入(ARR)已突破1亿美元大关。这一里程碑尤为引人注目的是,该公司在短短29个月前才刚刚达到100万美元ARR,实现了百倍级的指数增长。这一成就不仅彰显了HeyGen在商业上的成功,更揭示了AI技术快速迭代时代下,一种全新的企业运营范式正在崛起。 HeyGen创始人兼CEO Joshua Xu近期…

    2025年10月18日
    7800

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注