清华&伯克利联手突破:BOOM框架让具身智能性能翻倍,世界模型+强化学习实现双向奔赴

具身智能的样本效率瓶颈

在具身智能(Embodied AI)的快速发展中,样本效率已成为制约智能体从实验室环境走向复杂开放世界的瓶颈问题。

不同于纯数字域的对话任务,具身任务通常涉及极度复杂的物理环境感知以及高维度的连续控制输出。这意味着智能体面临着巨大的状态-动作搜索空间,导致学习效率低下且难以收敛。

传统的无模型强化学习由于缺乏对底层物理逻辑的理解,完全依赖于海量的盲目试错来获取学习信号。然而,在现实物理世界中,每一次交互都伴随着不可忽视的时间损耗、高昂的硬件维护成本以及潜在的安全风险,这使得动辄数亿次的交互需求变得极不现实。

为了应对这一挑战,世界模型强化学习(World Model RL)研究应运而生。其核心范式在于通过额外学习一个能够表征环境内在转移规律的预测模型,使智能体具备在想象空间中进行自我进化的能力。这种机制允许智能体在潜空间内进行大规模、低成本的轨迹预演与策略优化,从而显著降低对环境交互的依赖,加速具身智能机器人的落地应用。

清华&伯克利联手突破:BOOM框架让具身智能性能翻倍,世界模型+强化学习实现双向奔赴

在世界模型强化学习领域,如何将“多看几步”的在线规划(Online Planning)与“博采众长”的离轨策略学习(Off-Policy)机制完美结合?清华大学与加州大学伯克利分校的研究团队联合提出了BOOM框架,通过创新的“自举循环”机制,实现了高维控制任务下的性能新突破。

动机:当“在线规划”遇上“策略学习”

在线规划能够让智能体在环境交互前通过模拟未来轨迹来优化动作,显著提升强化学习的样本效率。然而,当在线规划与策略学习相遇时,存在一个根本性的矛盾:角色偏差(Actor Divergence),即规划器和策略是两个不同的角色。

这造成了两大痛点:
* 痛点一:价值学习的分布偏移:价值函数是在规划器收集的数据上训练的,而非策略网络本身。这导致它在策略网络实际访问的区域可能产生高估,造成评估不准。
* 痛点二:不可靠的策略改进:受偏置价值估计的影响,策略网络难以区分动作优劣,在复杂高维环境下极易导致训练不稳定甚至性能崩盘。

核心亮点:BOOM——让规划与学习“双向奔赴”

清华&伯克利联手突破:BOOM框架让具身智能性能翻倍,世界模型+强化学习实现双向奔赴

为了解决这一难题,研究团队提出了BOOM(Bootstrap Off-policy with World Model)框架。其核心思想是构建一个自举循环(Bootstrap Loop):
* 策略暖启动规划:策略网络为规划器提供初始动作方案。
* 规划精炼策略:规划器利用世界模型精炼出更高质量的动作,并通过行为对齐(Behavior Alignment)反馈给策略网络。

1. 无似然对齐机制(Likelihood-free Alignment)

由于在线规划器的动作分布通常是不可显式表达的非参数化分布(Non-parametric),其似然度(Likelihood)难以计算。BOOM采用了一种无似然对齐损失,无需知道规划器的具体概率分布,即可实现策略与规划动作的高效对齐,缓解角色偏差。

2. 软Q加权机制(Soft Q-weighted Mechanism)

并非所有的规划动作都是完美的。BOOM引入了软Q加权机制,根据Q函数动态调整权重,引导策略优先学习那些高价值、高回报的优质经验,从而在处理历史数据波动的同时加速学习。

实验结果:刷新SOTA,征服高维挑战

研究团队在DeepMind Control Suite(DMC)和挑战性极高的Humanoid-Bench(H-Bench)上进行了全面评估。

清华&伯克利联手突破:BOOM框架让具身智能性能翻倍,世界模型+强化学习实现双向奔赴

  • 卓越性能:在Humanoid和Dog等14个高维任务中,BOOM的最终表现和训练稳定性均达到了State-of-the-art(SOTA)水平。
  • 大幅领先:在DMC任务中,BOOM超过了TD-MPC2(+17.7%)和BMPC(+5.0%)。在Humanoid-Bench任务上,更是比DreamerV3提升了47.7%,比BMPC提升了60.5%。
  • 复杂环境适应性:即使是在需要滑行(H1hand-slide)或跨障碍(H1hand-hurdle)的复杂任务中,BOOM依然展现出了极强的控制鲁棒性,部分任务性能提升甚至超过100%。

总结与展望

BOOM框架通过巧妙的自举对齐机制,消弥了世界模型规划与离轨策略强化学习之间的鸿沟。这不仅为高维连续控制任务提供了一套高效、稳定的解决方案,也为未来具身智能(Embodied AI)在复杂现实环境中的落地提供了坚实的理论与实验支撑。

  • 论文题目:Bootstrap Off-policy with World Model
  • 论文链接:https://openreview.net/forum?id=zNqDCSokDR
  • 作者单位:清华大学、加州大学伯克利分校
  • 录取会议:NeurIPS 2025
  • 项目代码:https://github.com/molumitu/BOOM_MBRL

清华&伯克利联手突破:BOOM框架让具身智能性能翻倍,世界模型+强化学习实现双向奔赴


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/18527

(0)
上一篇 2026年1月21日 上午11:00
下一篇 2026年1月21日 上午11:51

相关推荐

  • 三大前沿AI智能体开源项目深度解析:从工作流编排到交易决策与视频创作

    AI 智能体平台 Astron Agent 是科大讯飞开源的一款实用性较高的 AI 智能体平台。 与 Coze、n8n 等平台类似,Astron Agent 集成了 AI 工作流编排、模型管理、工具集成、RPA 自动化和团队协作功能,但整体设计更为轻量。 它继承了科大讯飞 Astron 平台的核心技术,不仅支持智能体开发的全流程,还创新性地集成了智能 RPA…

    2025年11月20日
    6800
  • AI掌控安卓手机:四大开源项目深度解析与实战指南

    AI掌控安卓手机:四大开源项目深度解析与实战指南 去年11月,一篇盘点GitHub上AI操控手机开源项目的文章引发了广泛关注。文章发布仅五天后,豆包便官宣推出AI手机,紧接着智谱AI开源了AutoGLM模型。这标志着AI与移动设备交互进入了一个新的阶段。 本文将整合最新的开源项目,对当前GitHub上主流的AI控制手机方案进行一次全面的梳理和解析。 01 智…

    2025年12月15日
    10500
  • 3个GitHub开源神器:网页打包APP、私人时光机、极简番茄钟

    快速把网页打包成 APP 这个名为 PakePlus 的 GitHub 开源项目已获得 6.5K Star。它是一个能将常用网站(如 YouTube、小红书)或个人网页项目,快速打包成独立、小巧的桌面或移动端应用的工具。 它支持在 macOS、Windows、Linux 以及 Android 和 iOS 系统上安装使用。 PakePlus 体积小巧(小于 5…

    2025年11月13日
    6500
  • MemGovern框架:让AI从GitHub历史经验中学习,Bug修复率提升至69.8%

    MemGovern框架:让AI从GitHub历史经验中学习,Bug修复率提升至69.8% 当前,大语言模型驱动的代码智能体在自动化软件工程领域带来了变革,但它们普遍面临“封闭世界”的认知局限:现有的智能体往往试图从零开始修复Bug,或者仅依赖仓库内的局部上下文,而忽略了GitHub等平台上积累的浩瀚历史人类经验。 事实上,人类工程师在解决复杂问题时,往往会搜…

    2026年1月16日
    12400
  • 5个颠覆性GitHub开源项目:从视频手绘到AI约会选址,解锁创意新玩法

    将视频瞬间转化为手绘故事 ClipSketch AI 是一个创意工具,能够将视频链接(如来自B站或小红书)转换为一个带有打点功能的播放器。当用户看到感兴趣的帧时,只需按下快捷键即可截图,省去了使用独立截图工具的麻烦。 该项目的核心在于其AI图像生成能力。它集成了Google Gemini大模型,能够将截取到的视频帧瞬间转换为手绘风格的分镜草图,甚至可以根据画…

    2026年1月7日
    8000