告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

作者介绍
* 刘梦源:北京大学深圳研究生院研究员,研究方向为人类行为理解与机器人技能学习。
* 盛举义:北京大学在读博士研究生,研究方向为机器人操作技能学习方法。
* 王梓懿、李培铭:北京大学在读硕士研究生,研究方向为视频理解分析。
* 徐天铭:北京大学在读硕士研究生,研究方向为机器人操作技能学习方法。
* 徐天添:中国科学院深圳先进技术研究院集成所研究员,研究领域为磁控微型机器人导航、机器人的协同控制。
* 刘宏:北京大学深圳研究生院教授,研究领域为计算机视觉与智能机器人、机器学习与智能人机交互。

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

论文信息
* 标题:Trustworthy Evaluation of Robotic Manipulation: A New Benchmark and AutoEval Methods
* 论文链接:https://arxiv.org/abs/2601.18723
* 代码链接:https://github.com/LogSSim/TERM-Bench

随着视觉-动作(VA)与视觉-语言-动作(VLA)模型的快速发展,机器人模仿学习取得了显著进展。然而,当前的评估体系正面临严重的“信任危机”。现有评估范式主要依赖二元的“成功率”,这一简单指标掩盖了两个关键问题:
* 执行质量的模糊性:同样是“成功”完成任务,模型A可能动作僵硬、伴随剧烈抖动,而模型B则流畅自然。传统的二元评价无法区分二者,导致潜在的安全隐患被忽视。
* 来源的模糊性:在一些展示视频中,不仅难以判断动作是否由自主策略生成,甚至难以分辨其是否由人类远程操作“冒充”。

为解决上述评估信任危机,北京大学与中国科学院的研究团队提出了一套完整的解决方案:Eval-Actions评估基准AutoEval自动化评估架构。该方案旨在从“细粒度动作质量”和“来源真实性”两个维度,重塑机器人操作的评估标准。

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

图1:(上) 评估危机:现有二元指标掩盖了执行质量(如“抖动成功”与“平滑成功”的区别)和来源真实性(难以区分策略生成与人类遥操作)的模糊性。(下) 解决方案:Eval-Actions基准与AutoEval架构(绿色部分)相结合,填补了这两大空白,实现了精准的细粒度质量评估与鲁棒的来源验证,显著优于传统的通用VLM(红色部分)。

填补空白:首个面向评估完整性的Eval-Actions基准

表格1:机器人操作数据集的对比分析。与以模型训练为核心、追求原始轨迹数据量最大化的数据集不同,Eval-Actions以标注密度最大化为设计目标,其独特优势在于提供故障场景数据、混合轨迹数据源。

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

为打破现有数据集仅关注“成功演示”的局限,研究团队构建了Eval-Actions基准。与Open X-Embodiment等以训练为目的的数据集不同,Eval-Actions专为诊断性评估而生。
* 包含失败场景:数据集不仅包含成功轨迹,还创新性地引入了约2.8k条失败数据。这对于模型学习错误恢复和鲁棒的失败检测至关重要。
* 混合来源验证:数据集混合了人类遥操作数据与多种策略(VA及VLA模型)生成的轨迹,为验证“来源真实性”提供了数据基础。
* 多维监督信号:提供了专家评分、排序引导以及思维链(Chain-of-Thought, CoT)三种层次的注释,支持从数值评分到逻辑推理的全方位评估。

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

图2:Eval-Actions基准概览。包含从单臂到双臂的150+任务,并提供细粒度的质量雷达图与CoT注释。

AutoEval:双引擎驱动的自动化评估专家

为实现对机器人行为的精准诊断,团队设计了AutoEval框架。它并未采用单一模型,而是针对不同的评估维度,创新性地提出了AutoEval-SAutoEval-P两种架构,分别解决“看不清细节”和“胡乱推理”的难题。

1. AutoEval-S:精准捕捉动作细节

传统的VLA模型往往只能处理稀疏的关键帧,容易遗漏动作执行过程中的抖动或停顿。AutoEval-S引入了时空聚合策略。
* 高频细节压缩:它并未简单丢弃中间帧,而是将高频的运动细节“压缩”进视觉Token中,最大化了时间信息的密度。
* 物理信号校准:辅以运动学校准信号,直接利用速度和加速度方差等物理数据来校准视觉评估,确保评分精准反映动作的平滑度与安全性。

2. AutoEval-P:具备逻辑推理能力的“考官”

当需要模型输出思维链进行解释时,传统模型常出现“幻觉”,即推理逻辑与打分不一致。AutoEval-P引入了组相对策略优化范式。
* 强制言行一致:通过强化学习,AutoEval-P被训练在生成评分的同时,必须给出逻辑自洽的物理推理。其混合奖励函数同时约束内容的准确性和格式的规范性,有效消除了大模型的推理幻觉。

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

图3:上分支(AutoEval-S):专为评分与排序设计。采用时空聚合策略将高频运动细节压缩至视觉Token,并辅以物理校准信号,精准捕捉动作中的细微抖动。下分支(AutoEval-P):专为思维链推理设计。引入GRPO强化学习范式,通过混合奖励函数强制模型生成逻辑自洽的物理推理与评分,有效解决大模型的“幻觉”问题。

实验结果:树立可信评估新标准

在Eval-Actions Small子集上的广泛实验表明,AutoEval框架在多项指标上展现出卓越性能,全面超越了InternVL、QwenVL等通用大模型。

1. 极高的来源辨别力:让“造假”无处遁形

AutoEval能够以99.6% 的准确率区分视频是来自真实的策略生成还是人类遥操作,有效解决了“来源模糊性”问题。

2. 细粒度评分高度对齐人类

在衡量动作平滑度、安全性和效率的综合质量评分上,AutoEval-S与人类专家的判断高度一致。
* 在专家评分协议下,SRCC达到0.81
* 在排序引导协议下,SRCC高达0.84,显著优于未微调的InternVL3.5-4B和QwenVL3-4B。

表格2:Eval-Actions基准上的性能对比。在专家评分、排序引导及思维链三种协议下,AutoEval均取得了SOTA性能。特别是在RG协议下,AutoEval-S的评分相关性达到0.84,来源预测准确率高达99.6%,远超基线模型。

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

图4:细粒度动作质量评估的定性对比。

3. 跨构型泛化能力

即使在未见过的Franka机器人数据上,AutoEval依然保持了稳健的评估能力。AutoEval-S在新形态机器人上仍能达到0.75的评分相关性和90% 的来源预测准确率,展现了强大的跨实体泛化潜力。

表格 3 AutoEval 在未见构型 Franka 机械臂数据上的泛化实验结果

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

  1. 区分远程操作和策略执行视频

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证
告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/19548

(0)
上一篇 2026年1月31日 上午9:23
下一篇 2026年1月31日 上午11:56

相关推荐

  • OpenAI总裁爆料:Sora关门背后是蓄谋已久的Super App,新模型’Spud’即将登场

    OpenAI总裁Greg Brockman专访:战略聚焦、Super App与新模型“Spud” OpenAI联合创始人兼总裁Greg Brockman近期在一档播客节目中,详细阐述了公司近期的战略调整、未来产品规划以及对行业竞争的看法。以下为对话实录精校。 对话实录精校 为何调整Sora的发展方向? 主持人:外界观察到OpenAI似乎放缓了Sora视频模型…

    2026年4月4日
    36300
  • AI模型周报:通义千问、MiniMax、智谱AI等巨头齐发新版,图像编辑与编程能力全面升级

    12月23日 【闭源】通义千问发布图像编辑模型快照通义千问团队发布了 qwen-image-edit-plus-2025-12-15 图像编辑模型的最新快照。该版本在角色一致性、工业设计能力和几何推理能力上相较前代实现显著提升,优化了编辑后图片与原图在空间布局、纹理和风格上的匹配度,编辑效果更为精准细腻,旨在为专业图像处理提供更强大的工具支持。 【开源】Mi…

    2025年12月29日
    46700
  • AI与机器人霸屏春晚:揭秘2026年科技盛宴背后的产业大战

    智东西2月17日报道,刚刚过去的马年春晚,因AI与机器人成为绝对主角,引爆全网热议。从唯美的“十二花神”歌咏秀,到小品、武术、歌曲、喜剧短剧及贺岁微电影,众多节目都成了前沿科技的集中秀场。网友戏称,2026年春晚堪称“机器人春晚元年”。 在央视春晚主会场,松延动力的多款机器人不仅与“机器人祖师奶”蔡明同台演小品,更推出了高度逼真的“蔡明仿生机器人”;宇树的机…

    2026年2月17日
    97800
  • 模块化教学+智能选动作:UC伯克利破解人形机器人全身协同难题

    UC伯克利团队提出人形机器人全身协同新方案 在家庭厨房自主使用洗碗机,或在办公室边移动边擦拭白板,这些对人类而言稀松平常的场景,对人形机器人来说却是需要协调全身数十个关节的“高难度挑战”。 近日,加州大学伯克利分校的研究团队在arXiv上发表了题为《Coordinated Humanoid Manipulation with Choice Policies》…

    2026年1月18日
    37700
  • RLVR/GRPO组内优势估计的系统性偏差:揭秘大模型训练中的隐藏陷阱

    近年来,大模型在数学推理、代码生成等任务上取得突破,其背后一个关键技术是RLVR(Reinforcement Learning with Verifiable Rewards,可验证奖励的强化学习)。 简单来说,RLVR并非让模型被动接受人工评分,而是让模型主动生成多种解法,并依据可验证的客观规则(如答案是否正确)进行自我改进。这种通过反复试错来提升性能的模…

    2026年1月30日
    46200