清华&伯克利联手突破:BOOM框架让具身智能性能翻倍,世界模型+强化学习实现双向奔赴

具身智能的样本效率瓶颈

在具身智能(Embodied AI)的快速发展中,样本效率已成为制约智能体从实验室环境走向复杂开放世界的瓶颈问题。

不同于纯数字域的对话任务,具身任务通常涉及极度复杂的物理环境感知以及高维度的连续控制输出。这意味着智能体面临着巨大的状态-动作搜索空间,导致学习效率低下且难以收敛。

传统的无模型强化学习由于缺乏对底层物理逻辑的理解,完全依赖于海量的盲目试错来获取学习信号。然而,在现实物理世界中,每一次交互都伴随着不可忽视的时间损耗、高昂的硬件维护成本以及潜在的安全风险,这使得动辄数亿次的交互需求变得极不现实。

为了应对这一挑战,世界模型强化学习(World Model RL)研究应运而生。其核心范式在于通过额外学习一个能够表征环境内在转移规律的预测模型,使智能体具备在想象空间中进行自我进化的能力。这种机制允许智能体在潜空间内进行大规模、低成本的轨迹预演与策略优化,从而显著降低对环境交互的依赖,加速具身智能机器人的落地应用。

清华&伯克利联手突破:BOOM框架让具身智能性能翻倍,世界模型+强化学习实现双向奔赴

在世界模型强化学习领域,如何将“多看几步”的在线规划(Online Planning)与“博采众长”的离轨策略学习(Off-Policy)机制完美结合?清华大学与加州大学伯克利分校的研究团队联合提出了BOOM框架,通过创新的“自举循环”机制,实现了高维控制任务下的性能新突破。

动机:当“在线规划”遇上“策略学习”

在线规划能够让智能体在环境交互前通过模拟未来轨迹来优化动作,显著提升强化学习的样本效率。然而,当在线规划与策略学习相遇时,存在一个根本性的矛盾:角色偏差(Actor Divergence),即规划器和策略是两个不同的角色。

这造成了两大痛点:
* 痛点一:价值学习的分布偏移:价值函数是在规划器收集的数据上训练的,而非策略网络本身。这导致它在策略网络实际访问的区域可能产生高估,造成评估不准。
* 痛点二:不可靠的策略改进:受偏置价值估计的影响,策略网络难以区分动作优劣,在复杂高维环境下极易导致训练不稳定甚至性能崩盘。

核心亮点:BOOM——让规划与学习“双向奔赴”

清华&伯克利联手突破:BOOM框架让具身智能性能翻倍,世界模型+强化学习实现双向奔赴

为了解决这一难题,研究团队提出了BOOM(Bootstrap Off-policy with World Model)框架。其核心思想是构建一个自举循环(Bootstrap Loop):
* 策略暖启动规划:策略网络为规划器提供初始动作方案。
* 规划精炼策略:规划器利用世界模型精炼出更高质量的动作,并通过行为对齐(Behavior Alignment)反馈给策略网络。

1. 无似然对齐机制(Likelihood-free Alignment)

由于在线规划器的动作分布通常是不可显式表达的非参数化分布(Non-parametric),其似然度(Likelihood)难以计算。BOOM采用了一种无似然对齐损失,无需知道规划器的具体概率分布,即可实现策略与规划动作的高效对齐,缓解角色偏差。

2. 软Q加权机制(Soft Q-weighted Mechanism)

并非所有的规划动作都是完美的。BOOM引入了软Q加权机制,根据Q函数动态调整权重,引导策略优先学习那些高价值、高回报的优质经验,从而在处理历史数据波动的同时加速学习。

实验结果:刷新SOTA,征服高维挑战

研究团队在DeepMind Control Suite(DMC)和挑战性极高的Humanoid-Bench(H-Bench)上进行了全面评估。

清华&伯克利联手突破:BOOM框架让具身智能性能翻倍,世界模型+强化学习实现双向奔赴

  • 卓越性能:在Humanoid和Dog等14个高维任务中,BOOM的最终表现和训练稳定性均达到了State-of-the-art(SOTA)水平。
  • 大幅领先:在DMC任务中,BOOM超过了TD-MPC2(+17.7%)和BMPC(+5.0%)。在Humanoid-Bench任务上,更是比DreamerV3提升了47.7%,比BMPC提升了60.5%。
  • 复杂环境适应性:即使是在需要滑行(H1hand-slide)或跨障碍(H1hand-hurdle)的复杂任务中,BOOM依然展现出了极强的控制鲁棒性,部分任务性能提升甚至超过100%。

总结与展望

BOOM框架通过巧妙的自举对齐机制,消弥了世界模型规划与离轨策略强化学习之间的鸿沟。这不仅为高维连续控制任务提供了一套高效、稳定的解决方案,也为未来具身智能(Embodied AI)在复杂现实环境中的落地提供了坚实的理论与实验支撑。

  • 论文题目:Bootstrap Off-policy with World Model
  • 论文链接:https://openreview.net/forum?id=zNqDCSokDR
  • 作者单位:清华大学、加州大学伯克利分校
  • 录取会议:NeurIPS 2025
  • 项目代码:https://github.com/molumitu/BOOM_MBRL

清华&伯克利联手突破:BOOM框架让具身智能性能翻倍,世界模型+强化学习实现双向奔赴


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/18527

(0)
上一篇 2026年1月21日 上午11:00
下一篇 2026年1月21日 上午11:51

相关推荐

  • 从规则到认知:TwinMarket如何用大语言模型重塑金融市场仿真

    三十年前,圣塔菲研究所的“人工股票市场”实验揭示了传统Agent-Based Models(ABM)的根本困境:它们难以捕捉人类投资者复杂的认知偏差、情绪波动和社交影响。如今,大语言模型(LLM)的出现为这一领域带来了范式转变的可能。香港中文大学(深圳)与南京大学的研究团队推出的TwinMarket平台,正是这一转变的里程碑式实践。该平台通过构建千人规模的L…

    2025年11月15日
    18800
  • FlowithOS深度评测:专为AI Agent打造的操作系统,能否重塑浏览器智能化格局?

    近期,浏览器市场正经历一场由AI驱动的深刻变革。从Comet到Atlas,各大厂商纷纷将AI能力深度集成至浏览器中,试图在智能化浪潮中抢占先机。然而,这些尝试往往受限于网络环境、系统兼容性或付费门槛,用户体验参差不齐。在此背景下,Flowith推出的FlowithOS——全球首款专为AI Agent打造的操作系统,以其独特的定位吸引了广泛关注。它虽外观类似浏…

    2025年11月15日
    18800
  • AI生产力真相:Anthropic联创揭秘内部数据,代码加速遇瓶颈,维修工也难逃AI替代

    Anthropic联合创始人Jack Clark近期参与了一场深度对话,同台的还有知名前对冲基金经理Michael Burry、Dwarkesh播客创始人Dwarkesh Patel以及软件创业者Patrick McKenzie。 四位业界人士的讨论揭示了关于AI生产力的一些反直觉细节和数据。 AI工具真的提升了生产力吗?多数人的直觉答案是肯定的,但Jack…

    2026年1月11日
    20000
  • 鸿蒙AI操作系统:打破应用壁垒,迈向L3级智能协同新纪元

    2025年无疑是终端AI全面爆发的元年,整个产业迎来了继功能机向智能机跃迁后的又一个十字路口。 这场跃迁是一次商业模式与交互逻辑的根本性重塑,智能机时代以APP为中心的被动服务模式,正在向以AI智能体为中心的主动服务模式跨越。在这场跃迁之中,如何重构人与设备的连接,成为摆在所有厂商面前的共同考题。 行业中,一派倾向于改良,试图在既有的APP生态上做加法;另一…

    2025年12月27日
    20200
  • 英伟达豪掷260亿美元进军开源大模型:从AI基础设施霸主到亲自下场淘金

    昨日,我们解读了英伟达CEO黄仁勋发表的长篇博客。他在文中指出,人工智能是当今塑造世界最强大的力量之一,它并非单一应用或模型,而是如同电力和互联网一般的关键基础设施。 他将人工智能基础设施划分为“五层蛋糕”:能源 → 芯片 → 基础设施 → 模型 → 应用。目前,英伟达自身已成为人工智能时代基础设施的核心部分,尤其在芯片及“AI工厂”类基础设施领域占据主导地…

    6天前
    10000