清华&伯克利联手突破:BOOM框架让具身智能性能翻倍,世界模型+强化学习实现双向奔赴

具身智能的样本效率瓶颈

在具身智能(Embodied AI)的快速发展中,样本效率已成为制约智能体从实验室环境走向复杂开放世界的瓶颈问题。

不同于纯数字域的对话任务,具身任务通常涉及极度复杂的物理环境感知以及高维度的连续控制输出。这意味着智能体面临着巨大的状态-动作搜索空间,导致学习效率低下且难以收敛。

传统的无模型强化学习由于缺乏对底层物理逻辑的理解,完全依赖于海量的盲目试错来获取学习信号。然而,在现实物理世界中,每一次交互都伴随着不可忽视的时间损耗、高昂的硬件维护成本以及潜在的安全风险,这使得动辄数亿次的交互需求变得极不现实。

为了应对这一挑战,世界模型强化学习(World Model RL)研究应运而生。其核心范式在于通过额外学习一个能够表征环境内在转移规律的预测模型,使智能体具备在想象空间中进行自我进化的能力。这种机制允许智能体在潜空间内进行大规模、低成本的轨迹预演与策略优化,从而显著降低对环境交互的依赖,加速具身智能机器人的落地应用。

清华&伯克利联手突破:BOOM框架让具身智能性能翻倍,世界模型+强化学习实现双向奔赴

在世界模型强化学习领域,如何将“多看几步”的在线规划(Online Planning)与“博采众长”的离轨策略学习(Off-Policy)机制完美结合?清华大学与加州大学伯克利分校的研究团队联合提出了BOOM框架,通过创新的“自举循环”机制,实现了高维控制任务下的性能新突破。

动机:当“在线规划”遇上“策略学习”

在线规划能够让智能体在环境交互前通过模拟未来轨迹来优化动作,显著提升强化学习的样本效率。然而,当在线规划与策略学习相遇时,存在一个根本性的矛盾:角色偏差(Actor Divergence),即规划器和策略是两个不同的角色。

这造成了两大痛点:
* 痛点一:价值学习的分布偏移:价值函数是在规划器收集的数据上训练的,而非策略网络本身。这导致它在策略网络实际访问的区域可能产生高估,造成评估不准。
* 痛点二:不可靠的策略改进:受偏置价值估计的影响,策略网络难以区分动作优劣,在复杂高维环境下极易导致训练不稳定甚至性能崩盘。

核心亮点:BOOM——让规划与学习“双向奔赴”

清华&伯克利联手突破:BOOM框架让具身智能性能翻倍,世界模型+强化学习实现双向奔赴

为了解决这一难题,研究团队提出了BOOM(Bootstrap Off-policy with World Model)框架。其核心思想是构建一个自举循环(Bootstrap Loop):
* 策略暖启动规划:策略网络为规划器提供初始动作方案。
* 规划精炼策略:规划器利用世界模型精炼出更高质量的动作,并通过行为对齐(Behavior Alignment)反馈给策略网络。

1. 无似然对齐机制(Likelihood-free Alignment)

由于在线规划器的动作分布通常是不可显式表达的非参数化分布(Non-parametric),其似然度(Likelihood)难以计算。BOOM采用了一种无似然对齐损失,无需知道规划器的具体概率分布,即可实现策略与规划动作的高效对齐,缓解角色偏差。

2. 软Q加权机制(Soft Q-weighted Mechanism)

并非所有的规划动作都是完美的。BOOM引入了软Q加权机制,根据Q函数动态调整权重,引导策略优先学习那些高价值、高回报的优质经验,从而在处理历史数据波动的同时加速学习。

实验结果:刷新SOTA,征服高维挑战

研究团队在DeepMind Control Suite(DMC)和挑战性极高的Humanoid-Bench(H-Bench)上进行了全面评估。

清华&伯克利联手突破:BOOM框架让具身智能性能翻倍,世界模型+强化学习实现双向奔赴

  • 卓越性能:在Humanoid和Dog等14个高维任务中,BOOM的最终表现和训练稳定性均达到了State-of-the-art(SOTA)水平。
  • 大幅领先:在DMC任务中,BOOM超过了TD-MPC2(+17.7%)和BMPC(+5.0%)。在Humanoid-Bench任务上,更是比DreamerV3提升了47.7%,比BMPC提升了60.5%。
  • 复杂环境适应性:即使是在需要滑行(H1hand-slide)或跨障碍(H1hand-hurdle)的复杂任务中,BOOM依然展现出了极强的控制鲁棒性,部分任务性能提升甚至超过100%。

总结与展望

BOOM框架通过巧妙的自举对齐机制,消弥了世界模型规划与离轨策略强化学习之间的鸿沟。这不仅为高维连续控制任务提供了一套高效、稳定的解决方案,也为未来具身智能(Embodied AI)在复杂现实环境中的落地提供了坚实的理论与实验支撑。

  • 论文题目:Bootstrap Off-policy with World Model
  • 论文链接:https://openreview.net/forum?id=zNqDCSokDR
  • 作者单位:清华大学、加州大学伯克利分校
  • 录取会议:NeurIPS 2025
  • 项目代码:https://github.com/molumitu/BOOM_MBRL

清华&伯克利联手突破:BOOM框架让具身智能性能翻倍,世界模型+强化学习实现双向奔赴


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/18527

(0)
上一篇 2026年1月21日 上午11:00
下一篇 2026年1月21日 上午11:51

相关推荐

  • 突破百万上下文:面壁智能SALA混合注意力架构引领端侧大模型新纪元

    最强的大模型,已经把scaling卷到了一个新维度:百万级上下文 。 几天前,Claude Opus 4.6发布,让人第一次真切感受到了百万上下文的涌现能力——单次吃进50万字中文内容、实现跨文档法律分析、多轮Agent规划…… 而这股scaling的风,也很快吹到了端侧。 面壁智能发布了首次大规模训练的稀疏与线性混合注意力模型。这套新注意力架构,不仅解决了…

    2026年2月11日
    4100
  • 英伟达CES 2026技术盛宴:Rubin架构、开源AI与物理智能革命

    2026,黄仁勋开年第一讲来了! 5个小时前,英伟达创始人黄仁勋现身拉斯维加斯的CES 2026现场。3000名观众坐满礼堂,庭院里还有2000人在观看;全球数百万人通过直播欣赏这场新年技术盛宴。 这是我们今年的第一场主题演讲,我们得先把“蜘蛛网”清理掉。 黄仁勋的演讲长达90分钟,用他自己的话说,今天要“塞进去”的内容大概有15公斤那么多。 他首先开门见山…

    2026年1月6日
    20100
  • 生成式推荐新纪元:从腾讯广告算法大赛看全模态AI的产业变革

    在人工智能技术快速演进的浪潮中,推荐系统正经历一场从“判别式”到“生成式”的范式革命。近期落幕的腾讯广告算法大赛,以“全模态生成式推荐”为核心赛题,吸引了全球30个国家、8400多名技术精英、2800余支战队参与角逐。这场历时四个月的“千团大战”,不仅是一场技术实力的较量,更成为观察下一代推荐技术发展趋势的重要窗口。冠军由来自华中科技大学、北京大学、中国科学…

    2025年12月3日
    17300
  • 45亿红包引爆AI入口争夺战:百度如何以搜索+AI重塑用户路径

    这个春节,国内外AI圈有两件大事最引人注目:一件是OpenClaw的持续火爆,另一件是互联网大厂的春节营销大战。 在国外,从1月底开始,OpenClaw在GitHub上获得的Star数便如火箭般飙升,目前已突破18.9万。 在国内,无论是元宝的“瓜分10亿现金红包”、千问的“30亿请喝奶茶”,还是豆包成为春晚独家AI云合作伙伴,大厂间的竞争异常激烈,堪称“火…

    2026年2月15日
    8800
  • 从支线项目到行业颠覆者:DeepSeek等8大AI产品的意外崛起之路

    从支线项目到行业颠覆者:DeepSeek等8大AI产品的意外崛起之路 这些改变世界的产品,最初居然都是不被当回事儿的支线项目 (side project) ? 包括但不限于: DeepSeek:幻方量化的支线项目 Qwen:阿里的支线项目 Claude Code:Anthropic的支线项目 ChatGPT:OpenAI的支线项目 PyTorch:Meta的…

    2026年1月11日
    12700