VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

视频理解领域,信息复杂度远超静态图像,传统Video-LLM常依赖下采样或Token聚合将视频信息压缩至语言模型,导致细节丢失与语义纠缠问题。为此,北京大学与加州大学圣地亚哥分校联合团队提出VideoOrion框架,通过将前景显著的时空动态编码为Object Tokens,并与Context Tokens并行输入大语言模型,构建出高效、可解释且具备指代能力的视频理解新架构。该成果已被ICCV 2025以554高分接收,标志着视频语义解析迈入对象中心化新阶段。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

VideoOrion的核心创新在于将对象及其跨帧演化作为一级语义单元,显式提炼为离散的Object Tokens。这种方法不仅压缩了数据量,更使LLM能够沿对象维度整合细节,显著提升细粒度问答能力,并为需要“锁定实例”的指代任务提供天然接口。例如,在描述“红色三轮滑板车拖拽组件”或“黑色泳装者完成跳板后空翻”等场景时,模型能精准捕捉对象级动作要素,而非仅提供笼统的场景描述。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

技术实现上,VideoOrion采用双分支并行编码架构:Context Tokens分支使用CLIP(VideoOrion)或SigLIP(VideoOrion+)编码采样帧,经STC Connector投影为上下文Token,承载背景与场景等泛化信息;Object Tokens分支则通过检测-分割-跟踪三步流水线,首先用GroundingDINO在关键帧生成对象候选框,再通过SAM细化为精确对象掩码,最后利用XMem跨帧跟踪掩码序列,对池化特征投影形成紧凑的Object Tokens。两类Token共同输入LLM进行融合推理,实现对象与场景的协同理解。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

为应对视频中前景对象进出画面、场景突变等挑战,研究团队提出自适应切片机制,根据前景物体变化动态调整检测与关联策略,避免均匀分段导致的跨段错配。在对象流水线组件的替换实验中,无论使用RAM++、Mask2Former作为提案器,或调整分段策略,或以SAM2替代XMem跟踪器,双分支架构均稳定优于仅视频分支,最佳组合为RAM++分段 + GroundingDINO提案 + XMem跟踪,验证了架构的鲁棒性。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

实验结果表明,VideoOrion在多项基准测试中展现显著优势。在MVBench、EgoSchema、Perception-Test、VideoMME、ActivityNet-QA等数据集上,VideoOrion(7B)全面超越同骨干网络的VideoLLaMA2/2.1,相对涨幅分别达+10.1%、+14.6%、+15.6%、+8.7%、+7.8%。具体数值显示,在7B LLM配置下,MVBench得分63.5、EgoSchema 65.1、Perception-Test 65.2、VideoMME 54.6–55.3、ActivityNet-QA 57.7–3.7,相较于多款开源与闭源同规模模型具有明显领先优势。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

得益于显式Object Tokens设计,VideoOrion天然支持视频指代任务。通过在提示模板中将目标对象Token填入占位符,模型即可实现“指这个物体在做什么”的精准问答。在VideoRef45K数据集上的测试显示,该方法零样本即有效,经小规模指代数据微调后,在BLEU@4、METEOR、ROUGE_L、CIDEr、SPICE等指标上全面领先Artemis、Merlin等方法,证实Object Tokens对指代理解的直接助益。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

消融实验深入揭示了Object Tokens的必要性与适度性:移除对象分支会导致各基准性能下降;对象分支预训练对性能提升至关重要;Object Tokens数量在64个时达到最佳平衡,过少则信息不足,过多则注意力分散;仅使用Object Tokens会损失背景线索,但在对象细节任务中与仅视频分支表现相当,凸显其信息密度优势。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

尽管成果显著,VideoOrion仍存在局限性:引入检测/分割/跟踪视觉模型带来约38.5%的时延开销,低质量视频可能导致掩码不准;当前仍依赖视频分支提供上下文,对象与场景的最优融合机制有待进一步探索。团队指出,该框架并非替代视频特征,而是对象-场景双视角的结构化重写,兼顾全局把握与关键抓取。这一范式有望深刻影响视频问答、检索、机器人感知及视频创作等多模态应用,推动视频理解向更精细、更可解释的方向演进。

— 图片补充 —

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/6121

(0)
上一篇 2025年11月27日 上午11:50
下一篇 2025年11月27日 下午12:15

相关推荐

  • 港股再燃AI热潮!德适生物登陆港交所,医学影像AI大模型赛道迎来新巨头

    港股再燃AI热潮!德适生物登陆港交所,医学影像AI大模型赛道迎来新巨头 近日,港股市场的情绪再次被AI大模型点燃。 继年初智谱、MiniMax两大通用AI巨头上市后,3月30日,杭州德适生物科技股份有限公司正式登陆港交所。 作为港股首家医学影像AI大模型公司,德适的上市标志着中国大模型领域的三驾马车——“德智米”(德适、智谱、MiniMax),成功在港股会师…

    2026年4月3日
    30800
  • 通用导航新纪元:NavFoM如何用统一范式突破机器人跨任务跨本体壁垒

    在机器人技术快速演进的今天,导航能力被视为移动操作系统的基石,直接决定了机器人的工作半径与应用场景的广度。然而,长期以来,导航算法的研发往往陷入“专用化”的窠臼——针对特定任务(如视觉语言导航、目标搜索)或特定机器人本体(如四足机器狗、轮式机器人、无人机)进行定制化设计。这种割裂的研究范式虽然能在单一领域取得进展,却严重忽视了不同任务与不同机器人平台之间存在…

    2025年11月9日
    34500
  • OpenAI推出工作区智能体:GPTs退休倒计时,AI助手开启7×24小时自动办公时代

    GPTs 即将退出舞台。 OpenAI 今日在 ChatGPT 中正式推出“工作区智能体”(workspace agents)。这是对 GPTs 的全面升级,由 Codex 驱动,在云端拥有独立的工作区,具备文件存储、代码运行、外部工具调用以及记忆能力。 关键在于,它能够持续运行,实现全天候自动化办公。 有评论将其比作 OpenAI 版的自动化工作流工具。 …

    2026年4月23日
    42500
  • AI颠覆COBOL帝国:IBM股价单日蒸发310亿美元,创26年最惨纪录

    IBM 成为人工智能领域的最新受害者。 周一,IBM 股价单日暴跌 13.2%,收于 223.35 美元,创下该公司自 2000 年 10 月以来最惨烈的单日跌幅,月内累计跌幅已达 25%。 这场风波的导火索,是 AI 初创公司 Anthropic 发布的一篇博客文章。该文章介绍了其 Claude Code 工具如何自动化处理 COBOL 代码的现代化迁移工…

    2026年2月25日
    39600
  • OpenAI与迪士尼战略合作深度解析:股权换版权背后的AI产业博弈与生态重构

    近日,OpenAI与迪士尼正式宣布达成一项为期三年的战略合作协议,这一合作不仅涉及高达10亿美元的股权交易,更标志着生成式AI与内容IP产业融合进入全新阶段。作为科技主编,我将从产业动态、技术应用、版权合规及生态影响等多个维度,对这一事件进行深度剖析。 ### 一、合作框架:股权置换与IP授权的双重绑定 根据官方公告,迪士尼将成为Sora首个主要内容授权合作…

    2025年12月12日
    43500

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注