VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

视频理解领域,信息复杂度远超静态图像,传统Video-LLM常依赖下采样或Token聚合将视频信息压缩至语言模型,导致细节丢失与语义纠缠问题。为此,北京大学与加州大学圣地亚哥分校联合团队提出VideoOrion框架,通过将前景显著的时空动态编码为Object Tokens,并与Context Tokens并行输入大语言模型,构建出高效、可解释且具备指代能力的视频理解新架构。该成果已被ICCV 2025以554高分接收,标志着视频语义解析迈入对象中心化新阶段。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

VideoOrion的核心创新在于将对象及其跨帧演化作为一级语义单元,显式提炼为离散的Object Tokens。这种方法不仅压缩了数据量,更使LLM能够沿对象维度整合细节,显著提升细粒度问答能力,并为需要“锁定实例”的指代任务提供天然接口。例如,在描述“红色三轮滑板车拖拽组件”或“黑色泳装者完成跳板后空翻”等场景时,模型能精准捕捉对象级动作要素,而非仅提供笼统的场景描述。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

技术实现上,VideoOrion采用双分支并行编码架构:Context Tokens分支使用CLIP(VideoOrion)或SigLIP(VideoOrion+)编码采样帧,经STC Connector投影为上下文Token,承载背景与场景等泛化信息;Object Tokens分支则通过检测-分割-跟踪三步流水线,首先用GroundingDINO在关键帧生成对象候选框,再通过SAM细化为精确对象掩码,最后利用XMem跨帧跟踪掩码序列,对池化特征投影形成紧凑的Object Tokens。两类Token共同输入LLM进行融合推理,实现对象与场景的协同理解。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

为应对视频中前景对象进出画面、场景突变等挑战,研究团队提出自适应切片机制,根据前景物体变化动态调整检测与关联策略,避免均匀分段导致的跨段错配。在对象流水线组件的替换实验中,无论使用RAM++、Mask2Former作为提案器,或调整分段策略,或以SAM2替代XMem跟踪器,双分支架构均稳定优于仅视频分支,最佳组合为RAM++分段 + GroundingDINO提案 + XMem跟踪,验证了架构的鲁棒性。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

实验结果表明,VideoOrion在多项基准测试中展现显著优势。在MVBench、EgoSchema、Perception-Test、VideoMME、ActivityNet-QA等数据集上,VideoOrion(7B)全面超越同骨干网络的VideoLLaMA2/2.1,相对涨幅分别达+10.1%、+14.6%、+15.6%、+8.7%、+7.8%。具体数值显示,在7B LLM配置下,MVBench得分63.5、EgoSchema 65.1、Perception-Test 65.2、VideoMME 54.6–55.3、ActivityNet-QA 57.7–3.7,相较于多款开源与闭源同规模模型具有明显领先优势。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

得益于显式Object Tokens设计,VideoOrion天然支持视频指代任务。通过在提示模板中将目标对象Token填入占位符,模型即可实现“指这个物体在做什么”的精准问答。在VideoRef45K数据集上的测试显示,该方法零样本即有效,经小规模指代数据微调后,在BLEU@4、METEOR、ROUGE_L、CIDEr、SPICE等指标上全面领先Artemis、Merlin等方法,证实Object Tokens对指代理解的直接助益。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

消融实验深入揭示了Object Tokens的必要性与适度性:移除对象分支会导致各基准性能下降;对象分支预训练对性能提升至关重要;Object Tokens数量在64个时达到最佳平衡,过少则信息不足,过多则注意力分散;仅使用Object Tokens会损失背景线索,但在对象细节任务中与仅视频分支表现相当,凸显其信息密度优势。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

尽管成果显著,VideoOrion仍存在局限性:引入检测/分割/跟踪视觉模型带来约38.5%的时延开销,低质量视频可能导致掩码不准;当前仍依赖视频分支提供上下文,对象与场景的最优融合机制有待进一步探索。团队指出,该框架并非替代视频特征,而是对象-场景双视角的结构化重写,兼顾全局把握与关键抓取。这一范式有望深刻影响视频问答、检索、机器人感知及视频创作等多模态应用,推动视频理解向更精细、更可解释的方向演进。

— 图片补充 —

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/6121

(0)
上一篇 2025年11月27日 上午11:50
下一篇 2025年11月27日 下午12:15

相关推荐

  • Neuralink脑机接口:从医疗康复到人类增强的范式革命

    马斯克旗下的Neuralink近期公布的数据显示,其脑机接口技术已为12名患者累计植入超过2000天,总活跃时间突破1.5万小时。这一里程碑不仅标志着脑机接口从实验室走向临床应用的实质性突破,更预示着人类与机器融合的新时代正在加速到来。 首位接受Neuralink植入的Noland Arbaugh的案例极具代表性。因脊髓损伤导致颈部以下瘫痪的他,曾依赖咬嘴棒…

    2025年11月2日
    18600
  • 突破数据孤岛:Being-H0.5全栈开源具身模型以3.5万小时训练实现跨机器人零样本技能迁移

    BeingBeyond团队 投稿 量子位 | 公众号 QbitAI 近年来爆火的具身智能领域长期面对着数据孤立导致的训练困境,一线厂商凭借高投入建立独属于自研型号机器的“数据护城河”,而小厂的资产规模直接反映在数据体量上,限制了其产品专用模型的训练。 BeingBeyond团队 近日发布的Being-H0.5有望改变这一局面。 Being-H0.5是目前训练…

    2026年1月23日
    16500
  • OpenAI前联合创始人深度复盘:ChatGPT本可提前问世,AGI实现或比预期晚2-3倍,上下文学习短期内无可替代

    “如果早知道 Scaling 的回报这么高,那ChatGPT完全可以更早做出来!” 这是OpenAI的前联合创始人、Thinking Machines首席科学家John Schulman在最新采访中的论断。 以他的判断,放在2018-2019年,只要几位非常优秀的人工作一年左右,就可以做出接近 ChatGPT-3.5 的系统。 John Schulman是强…

    2025年12月24日
    21700
  • 智能的两种演化路径:从生物生存到商业优化的本质差异

    近日,OpenAI联合创始人、前特斯拉AI高级总监Andrej Karpathy在社交媒体上发表了一系列关于智能本质的深刻见解,引发了科技界的广泛讨论。他提出的核心观点挑战了我们对人工智能的传统认知框架:我们一直用理解动物智能的方式来理解AI,但这可能是一个根本性的错误。 Karpathy明确指出:“智能的空间很大,而动物智能(我们唯一了解的智能)只是其中的…

    2025年11月23日
    19700
  • Gemini 3 Pro引爆创意革命:从文本到交互式应用的AI生成新范式

    在人工智能技术快速迭代的浪潮中,谷歌最新发布的Gemini 3 Pro模型以其惊人的多模态生成能力,正在重新定义创意实现的边界。这款被网友戏称为“与上一代2.5 Pro之间差出一个GPT-5.1”的模型,仅发布一天就催生了大量令人惊叹的应用实例,展现出从简单文本描述到完整交互式应用的跨越式生成能力。 从技术架构层面分析,Gemini 3 Pro的核心突破在于…

    2025年11月20日
    18500

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注