告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

作者介绍
* 刘梦源:北京大学深圳研究生院研究员,研究方向为人类行为理解与机器人技能学习。
* 盛举义:北京大学在读博士研究生,研究方向为机器人操作技能学习方法。
* 王梓懿、李培铭:北京大学在读硕士研究生,研究方向为视频理解分析。
* 徐天铭:北京大学在读硕士研究生,研究方向为机器人操作技能学习方法。
* 徐天添:中国科学院深圳先进技术研究院集成所研究员,研究领域为磁控微型机器人导航、机器人的协同控制。
* 刘宏:北京大学深圳研究生院教授,研究领域为计算机视觉与智能机器人、机器学习与智能人机交互。

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

论文信息
* 标题:Trustworthy Evaluation of Robotic Manipulation: A New Benchmark and AutoEval Methods
* 论文链接:https://arxiv.org/abs/2601.18723
* 代码链接:https://github.com/LogSSim/TERM-Bench

随着视觉-动作(VA)与视觉-语言-动作(VLA)模型的快速发展,机器人模仿学习取得了显著进展。然而,当前的评估体系正面临严重的“信任危机”。现有评估范式主要依赖二元的“成功率”,这一简单指标掩盖了两个关键问题:
* 执行质量的模糊性:同样是“成功”完成任务,模型A可能动作僵硬、伴随剧烈抖动,而模型B则流畅自然。传统的二元评价无法区分二者,导致潜在的安全隐患被忽视。
* 来源的模糊性:在一些展示视频中,不仅难以判断动作是否由自主策略生成,甚至难以分辨其是否由人类远程操作“冒充”。

为解决上述评估信任危机,北京大学与中国科学院的研究团队提出了一套完整的解决方案:Eval-Actions评估基准AutoEval自动化评估架构。该方案旨在从“细粒度动作质量”和“来源真实性”两个维度,重塑机器人操作的评估标准。

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

图1:(上) 评估危机:现有二元指标掩盖了执行质量(如“抖动成功”与“平滑成功”的区别)和来源真实性(难以区分策略生成与人类遥操作)的模糊性。(下) 解决方案:Eval-Actions基准与AutoEval架构(绿色部分)相结合,填补了这两大空白,实现了精准的细粒度质量评估与鲁棒的来源验证,显著优于传统的通用VLM(红色部分)。

填补空白:首个面向评估完整性的Eval-Actions基准

表格1:机器人操作数据集的对比分析。与以模型训练为核心、追求原始轨迹数据量最大化的数据集不同,Eval-Actions以标注密度最大化为设计目标,其独特优势在于提供故障场景数据、混合轨迹数据源。

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

为打破现有数据集仅关注“成功演示”的局限,研究团队构建了Eval-Actions基准。与Open X-Embodiment等以训练为目的的数据集不同,Eval-Actions专为诊断性评估而生。
* 包含失败场景:数据集不仅包含成功轨迹,还创新性地引入了约2.8k条失败数据。这对于模型学习错误恢复和鲁棒的失败检测至关重要。
* 混合来源验证:数据集混合了人类遥操作数据与多种策略(VA及VLA模型)生成的轨迹,为验证“来源真实性”提供了数据基础。
* 多维监督信号:提供了专家评分、排序引导以及思维链(Chain-of-Thought, CoT)三种层次的注释,支持从数值评分到逻辑推理的全方位评估。

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

图2:Eval-Actions基准概览。包含从单臂到双臂的150+任务,并提供细粒度的质量雷达图与CoT注释。

AutoEval:双引擎驱动的自动化评估专家

为实现对机器人行为的精准诊断,团队设计了AutoEval框架。它并未采用单一模型,而是针对不同的评估维度,创新性地提出了AutoEval-SAutoEval-P两种架构,分别解决“看不清细节”和“胡乱推理”的难题。

1. AutoEval-S:精准捕捉动作细节

传统的VLA模型往往只能处理稀疏的关键帧,容易遗漏动作执行过程中的抖动或停顿。AutoEval-S引入了时空聚合策略。
* 高频细节压缩:它并未简单丢弃中间帧,而是将高频的运动细节“压缩”进视觉Token中,最大化了时间信息的密度。
* 物理信号校准:辅以运动学校准信号,直接利用速度和加速度方差等物理数据来校准视觉评估,确保评分精准反映动作的平滑度与安全性。

2. AutoEval-P:具备逻辑推理能力的“考官”

当需要模型输出思维链进行解释时,传统模型常出现“幻觉”,即推理逻辑与打分不一致。AutoEval-P引入了组相对策略优化范式。
* 强制言行一致:通过强化学习,AutoEval-P被训练在生成评分的同时,必须给出逻辑自洽的物理推理。其混合奖励函数同时约束内容的准确性和格式的规范性,有效消除了大模型的推理幻觉。

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

图3:上分支(AutoEval-S):专为评分与排序设计。采用时空聚合策略将高频运动细节压缩至视觉Token,并辅以物理校准信号,精准捕捉动作中的细微抖动。下分支(AutoEval-P):专为思维链推理设计。引入GRPO强化学习范式,通过混合奖励函数强制模型生成逻辑自洽的物理推理与评分,有效解决大模型的“幻觉”问题。

实验结果:树立可信评估新标准

在Eval-Actions Small子集上的广泛实验表明,AutoEval框架在多项指标上展现出卓越性能,全面超越了InternVL、QwenVL等通用大模型。

1. 极高的来源辨别力:让“造假”无处遁形

AutoEval能够以99.6% 的准确率区分视频是来自真实的策略生成还是人类遥操作,有效解决了“来源模糊性”问题。

2. 细粒度评分高度对齐人类

在衡量动作平滑度、安全性和效率的综合质量评分上,AutoEval-S与人类专家的判断高度一致。
* 在专家评分协议下,SRCC达到0.81
* 在排序引导协议下,SRCC高达0.84,显著优于未微调的InternVL3.5-4B和QwenVL3-4B。

表格2:Eval-Actions基准上的性能对比。在专家评分、排序引导及思维链三种协议下,AutoEval均取得了SOTA性能。特别是在RG协议下,AutoEval-S的评分相关性达到0.84,来源预测准确率高达99.6%,远超基线模型。

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

图4:细粒度动作质量评估的定性对比。

3. 跨构型泛化能力

即使在未见过的Franka机器人数据上,AutoEval依然保持了稳健的评估能力。AutoEval-S在新形态机器人上仍能达到0.75的评分相关性和90% 的来源预测准确率,展现了强大的跨实体泛化潜力。

表格 3 AutoEval 在未见构型 Franka 机械臂数据上的泛化实验结果

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

  1. 区分远程操作和策略执行视频

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证
告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/19548

(0)
上一篇 1天前
下一篇 1天前

相关推荐

  • 大模型编程应用测试-V3榜单:以工程应用标准量化模型能力

    #0 前言 笔者最早的编程测试V1采用传统的3 Pass测试法,25年下半年迭代了更贴近多轮场景的V2测试法。但仅测试3轮的V2方法局限性仍然很大。首先,该方法只观察模型在3轮自主修复中能取得的最终成绩,而实际Agent场景中,编程模型拥有几乎无限的轮次,只要能解决问题即可。其次,V2方法只提供运行结果反馈,不提供工具,而实际Agent可以借助Lint/Co…

    2026年1月3日
    7600
  • Gemini-3-pro登顶AI评测榜首:性能飞跃31%成本激增,终结豆包250天霸榜神话

    谷歌近期发布了Gemini-3-pro-preview新版本,官方称其在推理能力和多模态能力上达到最先进水平,在所有主要AI基准评测中显著超越Gemini-2.5-pro。我们对这两个版本进行了全面的对比评测,测试其在准确率、响应时间、token消耗和成本等关键指标上的表现差异。 Gemini-3-pro-preview版本表现:* 测试题数:约1.5万* …

    2025年11月25日
    10100
  • 无需微调,Poetiq元系统让GPT-5.2推理准确率飙升至75%,创ARC-AGI-2新纪录

    什么?决定 AI 上限的已不再是底座模型,而是外围的「推理编排」(Orchestration)。 在 LLM 完全不变的前提下,仅靠一套 Agentic System,就能让 AI 的智力表现原地暴涨一截。在看了「AI 推理和自我改进系统」初创公司 Poetiq 的最新评测之后,有人得出了这样的结论。 近日,Poetiq 表示其使用 ARC-AGI-2 测试…

    2025年12月25日
    9000
  • GPT-5.2实测:速度革命性突破,准确率小幅回退,定位转向实时应用

    OpenAI近期发布了GPT-5.2新版本(默认非思考模式),相比此前的GPT-5.1非思考版本,在响应速度上实现了革命性突破,但在准确率方面出现了轻微回退。我们对这两个版本进行了全面的对比评测,测试其在准确率、响应时间、token消耗和成本等关键指标上的表现差异。 GPT-5.2版本表现:* 测试题数:约1.5万* 总分(准确率):56.9%* 平均耗时(…

    2025年12月13日
    9700
  • GPT-5.2-Medium实测:速度飙升5倍,但准确率为何下滑?OpenAI新模型深度评测

    OpenAI近期发布了GPT-5.2版本,作为GPT-5系列的最新迭代。我们对GPT-5.2-Medium(思考模式)与上一版本GPT-5.1-Medium进行了全面对比评测,测试其在准确率、响应时间、Token消耗和成本等关键指标上的表现差异。 GPT-5.2-Medium版本表现:* 测试题数:约1.5万* 总分(准确率):64.3%* 平均耗时(每次调…

    2025年12月17日
    11200