VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

视频理解领域,信息复杂度远超静态图像,传统Video-LLM常依赖下采样或Token聚合将视频信息压缩至语言模型,导致细节丢失与语义纠缠问题。为此,北京大学与加州大学圣地亚哥分校联合团队提出VideoOrion框架,通过将前景显著的时空动态编码为Object Tokens,并与Context Tokens并行输入大语言模型,构建出高效、可解释且具备指代能力的视频理解新架构。该成果已被ICCV 2025以554高分接收,标志着视频语义解析迈入对象中心化新阶段。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

VideoOrion的核心创新在于将对象及其跨帧演化作为一级语义单元,显式提炼为离散的Object Tokens。这种方法不仅压缩了数据量,更使LLM能够沿对象维度整合细节,显著提升细粒度问答能力,并为需要“锁定实例”的指代任务提供天然接口。例如,在描述“红色三轮滑板车拖拽组件”或“黑色泳装者完成跳板后空翻”等场景时,模型能精准捕捉对象级动作要素,而非仅提供笼统的场景描述。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

技术实现上,VideoOrion采用双分支并行编码架构:Context Tokens分支使用CLIP(VideoOrion)或SigLIP(VideoOrion+)编码采样帧,经STC Connector投影为上下文Token,承载背景与场景等泛化信息;Object Tokens分支则通过检测-分割-跟踪三步流水线,首先用GroundingDINO在关键帧生成对象候选框,再通过SAM细化为精确对象掩码,最后利用XMem跨帧跟踪掩码序列,对池化特征投影形成紧凑的Object Tokens。两类Token共同输入LLM进行融合推理,实现对象与场景的协同理解。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

为应对视频中前景对象进出画面、场景突变等挑战,研究团队提出自适应切片机制,根据前景物体变化动态调整检测与关联策略,避免均匀分段导致的跨段错配。在对象流水线组件的替换实验中,无论使用RAM++、Mask2Former作为提案器,或调整分段策略,或以SAM2替代XMem跟踪器,双分支架构均稳定优于仅视频分支,最佳组合为RAM++分段 + GroundingDINO提案 + XMem跟踪,验证了架构的鲁棒性。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

实验结果表明,VideoOrion在多项基准测试中展现显著优势。在MVBench、EgoSchema、Perception-Test、VideoMME、ActivityNet-QA等数据集上,VideoOrion(7B)全面超越同骨干网络的VideoLLaMA2/2.1,相对涨幅分别达+10.1%、+14.6%、+15.6%、+8.7%、+7.8%。具体数值显示,在7B LLM配置下,MVBench得分63.5、EgoSchema 65.1、Perception-Test 65.2、VideoMME 54.6–55.3、ActivityNet-QA 57.7–3.7,相较于多款开源与闭源同规模模型具有明显领先优势。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

得益于显式Object Tokens设计,VideoOrion天然支持视频指代任务。通过在提示模板中将目标对象Token填入占位符,模型即可实现“指这个物体在做什么”的精准问答。在VideoRef45K数据集上的测试显示,该方法零样本即有效,经小规模指代数据微调后,在BLEU@4、METEOR、ROUGE_L、CIDEr、SPICE等指标上全面领先Artemis、Merlin等方法,证实Object Tokens对指代理解的直接助益。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

消融实验深入揭示了Object Tokens的必要性与适度性:移除对象分支会导致各基准性能下降;对象分支预训练对性能提升至关重要;Object Tokens数量在64个时达到最佳平衡,过少则信息不足,过多则注意力分散;仅使用Object Tokens会损失背景线索,但在对象细节任务中与仅视频分支表现相当,凸显其信息密度优势。

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

尽管成果显著,VideoOrion仍存在局限性:引入检测/分割/跟踪视觉模型带来约38.5%的时延开销,低质量视频可能导致掩码不准;当前仍依赖视频分支提供上下文,对象与场景的最优融合机制有待进一步探索。团队指出,该框架并非替代视频特征,而是对象-场景双视角的结构化重写,兼顾全局把握与关键抓取。这一范式有望深刻影响视频问答、检索、机器人感知及视频创作等多模态应用,推动视频理解向更精细、更可解释的方向演进。

— 图片补充 —

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破

VideoOrion:以对象动态为基石的视频理解新范式——双分支编码实现细粒度语义与指代能力突破


关注“鲸栖”小程序,掌握最新AI资讯

本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/6121

(0)
上一篇 2025年11月27日 上午11:48
下一篇 2025年11月27日 下午12:15

相关推荐

  • 突破双向编码瓶颈:快手BRHVC如何革新智能视频压缩技术

    在视频编码技术演进的长河中,双向编码(Random Access模式)始终扮演着高效压缩的关键角色,广泛应用于点播、存储等高画质场景。然而,当深度学习浪潮席卷视频编码领域时,这项传统技术却遭遇了前所未有的挑战。双向编码特有的分层B帧结构虽然能带来显著的码率节省,但其复杂的大跨度参考机制却成为智能编码算法难以逾越的障碍。 视频编码技术的本质在于解决海量视觉数据…

    2025年11月21日
    200
  • 国产AI生图新标杆:Vidu Q2如何以“业界最强一致性”重塑创作流程

    在AI图像生成领域,细节把控与一致性控制一直是技术突破的核心难点。即便是业界知名的Nano Banana Pro等工具,在处理多图融合、主体替换等复杂任务时,仍常出现风格断裂、元素错位等问题,导致输出结果与预期存在显著差距。例如,当用户尝试将三张毫无关联的图片进行融合时,生成效果往往不尽如人意: 。这种一致性失控的现象,不仅影响创作效率,更限制了AI技术在专…

    2025年12月1日
    200
  • SGLang Model Gateway 0.2:一体化AI原生编排解决方案的突破性实践

    在AI模型部署与推理的复杂生态中,尽管市场上涌现了众多GPU内核优化、推理引擎加速项目以及从传统云原生演进而来的AI网关工具,但真正实现一体化、原生AI编排的解决方案却长期处于空白状态。实际生产环境中,开发者往往需要自行整合多个组件,形成效率低下、维护困难的“缝合怪”系统。Oracle与SGLang团队敏锐地捕捉到这一痛点,近期推出了生产就绪的SGLang …

    2025年10月25日
    100
  • 智源研究院:以“安卓”模式破局具身智能数据孤岛,引领行业生态共建新范式

    在2025年智源具身智能Open Day活动中,一场被业界称为“具身武林大会”的盛会,罕见地聚集了银河通用、智元、星海图、自变量、原力灵机、加速进化、北京人形、星源智、优必选、因时、软通天擎等机器人领域的主要厂商代表。这一现象背后,折射出当前具身智能产业面临的核心挑战与转型契机。 智源研究院院长王仲远在会上提出的“数据贡献与模型效用正向关联”机制,直指行业长…

    2025年11月21日
    200
  • Nano Banana Pro深度解析:时空重构AI的突破与局限

    近期,Nano Banana Pro凭借其“时空重现”能力引发广泛关注。这款AI模型只需输入坐标和可选时间参数,就能生成对应时空的拟真影像,从技术角度看,这标志着多模态AI在时空理解与生成领域迈出了重要一步。 从技术架构分析,Nano Banana Pro的核心突破在于实现了从“推理”到“创造”的能力跃迁。早期版本已能通过图像反推拍摄坐标,展现出色的地理空间…

    2025年11月26日
    300

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注