告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

作者介绍
* 刘梦源:北京大学深圳研究生院研究员,研究方向为人类行为理解与机器人技能学习。
* 盛举义:北京大学在读博士研究生,研究方向为机器人操作技能学习方法。
* 王梓懿、李培铭:北京大学在读硕士研究生,研究方向为视频理解分析。
* 徐天铭:北京大学在读硕士研究生,研究方向为机器人操作技能学习方法。
* 徐天添:中国科学院深圳先进技术研究院集成所研究员,研究领域为磁控微型机器人导航、机器人的协同控制。
* 刘宏:北京大学深圳研究生院教授,研究领域为计算机视觉与智能机器人、机器学习与智能人机交互。

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

论文信息
* 标题:Trustworthy Evaluation of Robotic Manipulation: A New Benchmark and AutoEval Methods
* 论文链接:https://arxiv.org/abs/2601.18723
* 代码链接:https://github.com/LogSSim/TERM-Bench

随着视觉-动作(VA)与视觉-语言-动作(VLA)模型的快速发展,机器人模仿学习取得了显著进展。然而,当前的评估体系正面临严重的“信任危机”。现有评估范式主要依赖二元的“成功率”,这一简单指标掩盖了两个关键问题:
* 执行质量的模糊性:同样是“成功”完成任务,模型A可能动作僵硬、伴随剧烈抖动,而模型B则流畅自然。传统的二元评价无法区分二者,导致潜在的安全隐患被忽视。
* 来源的模糊性:在一些展示视频中,不仅难以判断动作是否由自主策略生成,甚至难以分辨其是否由人类远程操作“冒充”。

为解决上述评估信任危机,北京大学与中国科学院的研究团队提出了一套完整的解决方案:Eval-Actions评估基准AutoEval自动化评估架构。该方案旨在从“细粒度动作质量”和“来源真实性”两个维度,重塑机器人操作的评估标准。

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

图1:(上) 评估危机:现有二元指标掩盖了执行质量(如“抖动成功”与“平滑成功”的区别)和来源真实性(难以区分策略生成与人类遥操作)的模糊性。(下) 解决方案:Eval-Actions基准与AutoEval架构(绿色部分)相结合,填补了这两大空白,实现了精准的细粒度质量评估与鲁棒的来源验证,显著优于传统的通用VLM(红色部分)。

填补空白:首个面向评估完整性的Eval-Actions基准

表格1:机器人操作数据集的对比分析。与以模型训练为核心、追求原始轨迹数据量最大化的数据集不同,Eval-Actions以标注密度最大化为设计目标,其独特优势在于提供故障场景数据、混合轨迹数据源。

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

为打破现有数据集仅关注“成功演示”的局限,研究团队构建了Eval-Actions基准。与Open X-Embodiment等以训练为目的的数据集不同,Eval-Actions专为诊断性评估而生。
* 包含失败场景:数据集不仅包含成功轨迹,还创新性地引入了约2.8k条失败数据。这对于模型学习错误恢复和鲁棒的失败检测至关重要。
* 混合来源验证:数据集混合了人类遥操作数据与多种策略(VA及VLA模型)生成的轨迹,为验证“来源真实性”提供了数据基础。
* 多维监督信号:提供了专家评分、排序引导以及思维链(Chain-of-Thought, CoT)三种层次的注释,支持从数值评分到逻辑推理的全方位评估。

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

图2:Eval-Actions基准概览。包含从单臂到双臂的150+任务,并提供细粒度的质量雷达图与CoT注释。

AutoEval:双引擎驱动的自动化评估专家

为实现对机器人行为的精准诊断,团队设计了AutoEval框架。它并未采用单一模型,而是针对不同的评估维度,创新性地提出了AutoEval-SAutoEval-P两种架构,分别解决“看不清细节”和“胡乱推理”的难题。

1. AutoEval-S:精准捕捉动作细节

传统的VLA模型往往只能处理稀疏的关键帧,容易遗漏动作执行过程中的抖动或停顿。AutoEval-S引入了时空聚合策略。
* 高频细节压缩:它并未简单丢弃中间帧,而是将高频的运动细节“压缩”进视觉Token中,最大化了时间信息的密度。
* 物理信号校准:辅以运动学校准信号,直接利用速度和加速度方差等物理数据来校准视觉评估,确保评分精准反映动作的平滑度与安全性。

2. AutoEval-P:具备逻辑推理能力的“考官”

当需要模型输出思维链进行解释时,传统模型常出现“幻觉”,即推理逻辑与打分不一致。AutoEval-P引入了组相对策略优化范式。
* 强制言行一致:通过强化学习,AutoEval-P被训练在生成评分的同时,必须给出逻辑自洽的物理推理。其混合奖励函数同时约束内容的准确性和格式的规范性,有效消除了大模型的推理幻觉。

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

图3:上分支(AutoEval-S):专为评分与排序设计。采用时空聚合策略将高频运动细节压缩至视觉Token,并辅以物理校准信号,精准捕捉动作中的细微抖动。下分支(AutoEval-P):专为思维链推理设计。引入GRPO强化学习范式,通过混合奖励函数强制模型生成逻辑自洽的物理推理与评分,有效解决大模型的“幻觉”问题。

实验结果:树立可信评估新标准

在Eval-Actions Small子集上的广泛实验表明,AutoEval框架在多项指标上展现出卓越性能,全面超越了InternVL、QwenVL等通用大模型。

1. 极高的来源辨别力:让“造假”无处遁形

AutoEval能够以99.6% 的准确率区分视频是来自真实的策略生成还是人类遥操作,有效解决了“来源模糊性”问题。

2. 细粒度评分高度对齐人类

在衡量动作平滑度、安全性和效率的综合质量评分上,AutoEval-S与人类专家的判断高度一致。
* 在专家评分协议下,SRCC达到0.81
* 在排序引导协议下,SRCC高达0.84,显著优于未微调的InternVL3.5-4B和QwenVL3-4B。

表格2:Eval-Actions基准上的性能对比。在专家评分、排序引导及思维链三种协议下,AutoEval均取得了SOTA性能。特别是在RG协议下,AutoEval-S的评分相关性达到0.84,来源预测准确率高达99.6%,远超基线模型。

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

图4:细粒度动作质量评估的定性对比。

3. 跨构型泛化能力

即使在未见过的Franka机器人数据上,AutoEval依然保持了稳健的评估能力。AutoEval-S在新形态机器人上仍能达到0.75的评分相关性和90% 的来源预测准确率,展现了强大的跨实体泛化潜力。

表格 3 AutoEval 在未见构型 Franka 机械臂数据上的泛化实验结果

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

  1. 区分远程操作和策略执行视频

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证

告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证
告别单一成功率:北大团队推出机器人操作评估新范式,实现细粒度质量与来源真实性双重验证


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/19548

(0)
上一篇 2026年1月31日 上午9:23
下一篇 2026年1月31日 上午11:56

相关推荐

  • SceneMaker:突破3D生成瓶颈,从任意图像到完整3D场景的开放世界重建

    3D生成技术面临“半开放”窘境 当前3D生成技术深陷“半开放”窘境:模型能够打造精美的样板间,却对真实世界中千变万化的物体与场景表现不稳定。 针对这一问题,IDEA研究院张磊团队与香港科技大学谭平团队联合推出了SceneMaker框架。该框架以万物检测模型DINO-X与万物3D生成模型Triverse为基础,实现了从任意开放世界图像(室内、室外、合成图等)到…

    2026年1月25日
    12300
  • 字节豆包AI全面升级:多模态Agent、图像视频生成大版本革新,引爆春节AI大战

    「2026 年或将成为人类历史上最忙碌、也最具决定性的一年。」xAI 联创 Jimmy Ba 在离职宣言中如是说。 这话并非夸张。1 月初,Anthropic 推出 Agent 工具 Claude Cowork,并发布 11 个配套插件;一周前,Anthropic 与 OpenAI 又几乎同时推出新版本基础大模型 Claude Opus 4.6 与 GPT-…

    2026年2月14日
    3400
  • AI编程革命:个人贡献者终结,开发者转型管理者时代来临

    “AI杀死了个人贡献者,软件开发者正在变成管理者!” Superphonic 创始人、OpenAI 前任网站负责人和工程师、微软和Meta的前任高级领导Philip Su,近期发表了一篇题为《AI正在杀死个人贡献者》的文章,描绘了AI给编程体验带来的根本性转变。 在文章中,Philip Su指出,由于AI的出现,“个人贡献者”这一基础的软件开发工作岗位正在永…

    2026年2月21日
    8300
  • 微软Entra Agent ID:AI智能体的统一身份治理,开启零信任安全新纪元

    早在2025年5月的Microsoft Build大会上,微软首次公布了Entra Agent ID,为AI智能体引入统一的身份目录,让企业能够一站式发现和管理来自Copilot Studio、Azure AI Foundry等平台创建的智能体身份。这标志着AI智能体从“无序实验”向“企业级可控”迈出了关键一步。 随后,在2025年11月的Microsoft…

    2026年1月15日
    17200
  • 对话九合王啸:90%具身智能公司没未来,市场名额只有三五家

    2026年初,具身智能赛道再度涌入大量资本。 在喧嚣的资本浪潮中,能够做出专业判断、锚定长期趋势的投资人屈指可数,王啸是其中之一。 在人工智能尚未成为风口的十余年前,他便带领九合创投布局AI相关领域。当大模型底层框架还未成为行业焦点时,他投资了一流科技,其研发的OneFlow后来成为世界首个面向大模型大数据的人工智能计算框架。在具身智能仍是创投圈小众话题时,…

    4天前
    9100