Video-MME-v2震撼发布:揭示大模型视频理解与人类的巨大鸿沟,传统评测指标已“失真”

现有大模型评测分数日趋饱和,但与真实体验差距显著。南京大学傅朝友团队牵头,在 Google Gemini 评测团队邀约下推出视频理解新基准 Video-MME-v2。凭借创新的分层能力体系与组级非线性评分,以及 3300+ 人工时高质量标注,揭示模型与人类的巨大鸿沟(49 vs 90)、传统 Acc 指标虚高、以及 “Thinking” 并非总是增益等现象。

一年多前,傅朝友带领的 Video-MME 团队发布了其第一版 Benchmark,被 Gemini、GPT 等广泛用于视频理解评测。根据 Paper Digest 统计,Video-MME 在 CVPR 2025 所有录用论文中影响力排名第一(引用 1100+ 次)。

近年来,团队进一步对多模态大模型评测进行了系统梳理,并发布综述工作 MME-Survey,从能力覆盖、评测方式到指标设计,对现有 Benchmark 进行了全面分析。

正因如此,团队更早、更清晰地意识到:现有评测范式,开始逐渐“失真”了。多模态大模型在视频理解上进步神速,各类 Benchmark 上的分数都在趋于饱和,但真实体验依然不足。在这样的背景下,Video-MME-v2 正式发布。

Video-MME-v2 是一个面向下一代视频理解能力的评测基准,历经近一年时间准备,由 12 名标注人员和 50 位独立审核人员共同完成,投入超过 3300 人工时标注时间。与传统 Benchmark 的不同在于,其采用了一个精心设计的逐层递进三层能力体系以及分组非线性评分方法。

评测结果显示:人类专家的非线性得分为 90.7(传统 Acc 为 94.9),而当前最强的商业模型 Gemini-3-Pro 得分仅为 49.4,开源模型 Qwen 最佳结果为 39.1。

一、Video-MME-v2 在测什么?

Video-MME-v2 的第一个核心设计,是把视频理解拆成一个逐层递进的三层能力体系。

  1. 第一层:信息检索与聚合。 这是视频理解最基础的一层,关注模型能否从跨帧、跨模态的信息中,准确识别并提取关键事实。
  2. 第二层:时序理解。 基于第一层,第二层进一步考察模型是否真正理解了时间维度。要求模型不仅能看懂不同帧的静态画面,更要抓住动作发生的先后关系、状态如何变化、事件为何发生。
  3. 第三层:复杂推理。 基于第二层,第三层则更接近真实世界任务,要求模型在更复杂、更开放的场景中进行推理。这也是最接近“人类式理解”的一层:不仅要看懂,还要能推断、能解释、能综合。

Video-MME-v2震撼发布:揭示大模型视频理解与人类的巨大鸿沟,传统评测指标已“失真”
图 1 Video-MME-v2 能力层级分布以及部分模型能力排行

二、Video-MME-v2 不只是“多出题”,而是换了一种新测法

Video-MME-v2 的第二个关键创新,在于“怎么测”。这项工作没有继续沿用“每题独立计分”的传统方法,而是引入了组级评测。即,不再只看模型某一道题答没答对,而是看它在一组相关问题上是否表现出一致性和连贯性。

  1. 能力一致性组:看模型是不是“真的会”
    它关注的是:同一种能力,模型在不同问法、不同粒度、不同侧面上,能不能都保持稳定。例如,如果一个模型真的具备空间理解能力,那它不仅应该能回答“物体在哪里”,也应该能回答“它和另一个物体的相对位置如何变化”。
  2. 推理连贯性组:看模型是不是“真正在推理”
    它关注的是:当一个复杂问题需要多步推理时,模型能不能沿着合理的逻辑链条,一步一步走到结论。例如,在一个复杂剧情视频里,模型可能需要先发现一个关键视觉线索,再识别异常细节,再推断人物目的,最后才能得出结论。如果中间某一环错了,最终即使“碰巧选对了”,这种正确也不能算作真正可信的推理。

为了和组级评测相配套,Video-MME 团队进一步采用了非线性评分机制。

  • 对于能力一致性组,四道相关问题不是简单平均,而是采用激励计分(一个 Group 里答对越多奖励也多)。这意味着:零散地答对几道题,并不能拿到很高分;只有当模型在同组问题中保持稳定表现,分数才会真正上来。
  • 对于推理连贯性组,则是进一步采用“首错截断”机制。即,一旦某一步做错,后面即使答对,也不再计分。

三、为什么说它更难,也更可信?

一个 Benchmark 的说服力,不只在于“设计巧”,也在于“数据够不够扎实”。团队严格把控 Video-MME-v2 的数据源、标注流程、质检标准等各方面,投入了极高的人力成本。数据集最终包含 800 个视频、3200 个问题;共有 12 名标注者和 50 位独立审核人员参与,经过 5 轮交叉审核与闭环修订,累计投入超过 3300 人工时。

四、评测结果如何?

在主榜结果中,人类的组级非线性得分达到 90.7,平均准确率达到 94.9;而当前表现最好的商业模型 Gemini-3-Pro,组级非线性得分为 49.4。开源模型中,Qwen3.5-397B-A17B-Think(512 frames),组级得分为 39.1。

这意味着:哪怕是当前最强的视频模型,在更严格、更强调一致性与连贯性的评测框架下,与人类仍存在巨大的差距。

论文也特别指出,模型从 Level 1 到 Level 3 呈现出明显的性能递减,说明高层复杂推理的薄弱,并不只是“推理模块不够强”,而往往是前面的信息聚合和时序建模已经出了问题,最终层层累积,拖垮了复杂理解。

Video-MME-v2震撼发布:揭示大模型视频理解与人类的巨大鸿沟,传统评测指标已“失真”
图 2 当前评测前 10 名

五、非线性评分的优势:从“答对一道题”到“稳定理解一组问题”

在传统评测中,平均准确率(Avg Acc)是最常用的指标,但它本质上是逐题独立统计的结果,容易受到“零散命中”的影响。

相比之下,团队提出的组级非线性评分(Non-Lin Score),通过对问题之间的结构关系进行建模,更强调模型在同一能力维度下的整体表现,从而能够更真实地刻画模型是否“稳定地理解了视频”。

进一步来看,非线性评分还揭示了模型能力中的一个重要现象:从“单题正确”到“组内稳定正确”之间存在显著能力折损。为此,团队引入了一个具有解释力的指标 —— Non-Lin Score / Avg Acc 的比值,用于衡量这一折损程度。

实验结果显示,当前最强模型 Gemini-3-Pro 的比值约为 75%;Doubao-Seed-2.0-Pro 的比值约为 72%;而部分中小模型(如 LLaVA-Video-7B)甚至低至约 40%。

比值越低,说明模型越容易出现“组内只能答对部分题”的现象,稳定性与鲁棒性越弱。由此可见非线性打分在真实刻画能力水平、揭示模型鲁棒性方面的优势。

Video-MME-v2震撼发布:揭示大模型视频理解与人类的巨大鸿沟,传统评测指标已“失真”
图 3 不同模型 Non-Lin Sore/Avg Acc 的比值结果

六、一个很值得关注的发现:Thinking,并不总是有效

在今天的大模型语境下,“Thinking”几乎已经成了默认增强选项。但 Video-MME-v2 的一个非常有意思、也非常重要的发现是:Thinking 的收益不是无条件成立的,它高度依赖文本线索。

实验结果表明,开启思维链(Thinking)功能后,模型在“有字幕”设定下的性能提升通常比“纯视觉”设定下更为显著。例如,Qwen3.5-122B-A10B-Think(64帧)在无字幕和有字幕设定下,性能分别提升了+3.8和+5.8。这说明,显式的文本语义信息仍然是许多模型进行多步推理时的重要依据。

然而,思维链也可能导致性能退化。例如,Qwen3-VL-8B在无字幕设定下出现了-0.6的下降,而KimiVL-16B整体上出现了-3.3的性能回落。在更侧重复杂推理的Level 3任务上,其退化程度甚至达到-4.0。

这表明,当前部分模型的“推理增强”能力,本质上更依赖于利用语言线索,而非稳定地从视觉、音频等多模态信息中提取有效证据以支撑推理。一旦文本信息不足,思维链不仅可能无法带来增益,反而可能引入噪声,影响模型判断。

Video-MME-v2震撼发布:揭示大模型视频理解与人类的巨大鸿沟,传统评测指标已“失真”
图4:在有无字幕设定下,开启思维链(Thinking)对模型性能的影响

小结:Video-MME-v2旨在推动视频理解评测理念的转变,其核心是衡量模型能否在连续、动态、多模态的信息流中,像人类一样真正理解“正在发生”和“已经发生”的事件。

项目负责人简介
Video-MME系列的项目负责人(Project Lead)为南京大学傅朝友老师。

Video-MME-v2震撼发布:揭示大模型视频理解与人类的巨大鸿沟,传统评测指标已“失真”

傅朝友,南京大学模式识别实验室研究员、助理教授、博导,入选中国科协“青年人才托举工程”。2022年于中国科学院自动化研究所模式识别实验室获得博士学位,研究方向为多模态内容分析。谷歌学术引用8700余次,其中两篇一作论文单篇引用过千次,六篇一作论文单篇引用过百次。

其开源项目累计获得超过2万次GitHub Stars。代表性工作包括VITA多模态大模型系列(VITA-1.0/-1.5、Long-VITA、VITA-Audio)、MME多模态评测基准系列(MME、Video-MME、MME-RealWorld)以及Awesome-MLLM社区等。

学术服务方面,担任Pattern Recognition、IEEE T-BIOM等期刊编委,以及ICLR、ICML等会议的领域主席。同时兼任CSIG青工委委员、CCF-AI/CV专委会执行委员。曾获小米青年学者-科技创新奖、华为紫金学者、世界人工智能大会云帆奖、中科院院长特别奖、IEEE Biometrics Council最佳博士论文奖、北京市优秀博士学位论文、中科院优秀博士学位论文、CVPR 2023杰出评审人等荣誉。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/29902

(0)
上一篇 4小时前
下一篇 3小时前

相关推荐

  • Anthropic推出技能评测框架:无需代码即可测试和改进Claude技能

    Anthropic 近日为其 Skill Creator 工具推出了全新的评测框架。自去年 10 月以来,他们观察到大多数技能创建者是业务专家而非工程师。他们熟悉自身工作流程,但缺乏有效工具来评估技能是否真正有效、是否能在正确时机触发,以及修改后是否确实带来了改进。 新的评测框架旨在解决这一问题,它将软件开发中的严谨性——包括测试、基准测试和迭代改进——引入…

    2026年3月6日
    38800
  • MiniMax-M2.1实测:性能提升4%但响应时间翻倍,成本增加21.6%的深度评测

    MiniMax新发布了M2.1版本,相比此前的M2版本,在多个维度实现了性能变化。我们对这两个版本进行了全面的对比评测,测试其在准确率、响应时间、token消耗和成本等关键指标上的表现差异。 MiniMax-M2.1版本表现:* 测试题数:约1.5万* 总分(准确率):63.6%* 平均耗时(每次调用):111s* 平均token(每次调用消耗的token)…

    2025年12月24日
    1.9K00
  • Gemini 3.1 Flash Lite评测:推理速度创5秒新低,指令遵循能力意外强劲

    核心结论:为高速响应与高效执行而生的轻量化模型 概述 Gemini 3.1 Flash Lite(下称Lite)在响应速度上实现了显著突破。其前代模型曾创下平均10秒的极速应答纪录,而新版Lite将非推理模式下的平均应答时间进一步缩短至5秒新低。对于简单问题,其响应近乎瞬时。 在推理能力方面,Lite展现出与其“轻量”定位不符的潜力。其推理模式可支持高达45…

    2026年3月5日
    34800
  • GPT-5.2-Medium实测:速度飙升5倍,但准确率为何下滑?OpenAI新模型深度评测

    OpenAI近期发布了GPT-5.2版本,作为GPT-5系列的最新迭代。我们对GPT-5.2-Medium(思考模式)与上一版本GPT-5.1-Medium进行了全面对比评测,测试其在准确率、响应时间、Token消耗和成本等关键指标上的表现差异。 GPT-5.2-Medium版本表现:* 测试题数:约1.5万* 总分(准确率):64.3%* 平均耗时(每次调…

    2025年12月17日
    35900
  • Theory of Space:具身智能新突破,让大模型像人一样探索未知空间

    【核心摘要】 全新的具身模型空间能力评估范式“Theory of Space”突破了传统静态图文问答的局限,系统性地考察基础模型能否像人一样,在部分可观测的动态环境中,通过自主探索来构建、修正和利用空间信念。该论文已被 ICLR 2026 接收。 当今的多模态大模型(如 GPT-5.2, Gemini-3 Pro)在各类视觉问答榜单上屡破纪录。然而,若希望将…

    2026年3月4日
    30700