在人工智能领域,让机器像人类一样自然地理解三维世界的几何结构与语义内容,一直是极具挑战性的前沿课题。传统方法通常将3D重建(底层几何)与空间理解(高层语义)割裂处理,这种分离不仅导致错误在流程中累积,更严重限制了模型在复杂、动态场景中的泛化能力。近年来,一些新方法尝试将3D模型与特定的视觉语言模型(VLM)进行绑定,但这本质上是一种妥协:模型被限制在预设的语义框架内,无法区分同一类别下的不同实例(如区分两张不同的椅子),更难以适应多样化的下游任务需求,扩展性严重不足。
面对这一核心瓶颈,南洋理工大学(NTU)与StepFun团队联合提出了开创性的解决方案——IGGT(Instance-Grounded Geometry Transformer)。这是一个端到端的大型统一Transformer模型,首次在单一架构内,成功地将高精度的空间几何重建与细粒度的实例级上下文理解融为一体,标志着3D场景理解范式的一次重要跃迁。
IGGT的研究贡献主要体现在四个层面,共同构建了一个强大且灵活的3D感知系统。
首先,在架构层面,IGGT的核心是一个端到端的统一Transformer框架。它摒弃了传统多阶段、模块化的设计,将空间重建和实例级理解的知识统一在同一个大型模型中进行联合训练。这种一体化设计确保了从输入图像到最终3D理解的信息流是连贯且相互促进的,几何线索能增强语义分割的边界精度,而实例信息又能反过来优化几何结构的连贯性,从根本上避免了传统方法因模块割裂导致的误差传播问题。
其次,数据是驱动此类模型的关键。为此,团队构建了一个全新的大规模数据集InsScene-15K,包含15,000个高质量场景、超过2亿张图像,并通过一套创新的数据管线标注了3D一致的实例级掩码。该数据集的构建过程本身就是一个技术亮点。它整合了合成数据(如Aria, Infinigen)、真实世界视频(如RE10K)和RGBD采集数据(如ScanNet++)三种来源。对于合成数据,可直接利用模拟生成的完美掩码;对于视频数据,采用了定制化的SAM2视频密集预测管线,通过初始掩码生成、时间传播、关键帧迭代和双向传播,确保了长视频序列中掩码的高度时间一致性;对于RGBD数据,则设计了一套掩码优化流程,将粗糙的3D标注与SAM2生成的精细2D掩码进行匹配与合并,最终得到既保持3D ID一致性又具备高形状精度的优质标注。这套数据管线为训练IGGT这样的统一模型提供了坚实的数据基础。



第三,也是IGGT最具突破性的理念——实例解耦与即插即用范式。研究团队首创了“实例接地的场景理解”范式。IGGT本身不与任何特定的VLM或LMM(大型多模态模型)绑定。相反,它的核心输出是高质量的、3D一致的实例掩码。这些掩码充当了一个通用的“桥梁”或“接口”。具体流程是:IGGT首先通过其强大的实例头解码出3D一致的实例特征,然后利用无监督聚类算法(如HDBSCAN)将这些特征分组,从而将整个3D场景分割为不同的对象实例,并生成对应的2D实例掩码。这些掩码可以“即插即用”地与下游任意的、甚至是最新发布的VLMs(如CLIP, OpenSeg)或LMMs(如Qwen-VL 2.5)进行无缝集成。例如,将掩码区域的特征输入CLIP,即可实现开放词汇的语义分割;输入Qwen-VL,则可进行复杂的场景问答。这种解耦设计彻底打破了以往方法将3D模型与特定语言模型“锁死”的局限,赋予了系统极大的灵活性和未来可扩展性。
最后,这种统一的表示能力极大地拓展了下游应用边界。IGGT是首个能同时原生支持空间跟踪、开放词汇分割和3D场景问答的统一模型。这意味着同一个训练好的IGGT模型,无需任何结构调整,就能应对多种截然不同的3D理解任务,展示了其作为基础3D感知模型的强大潜力。

深入IGGT的模型架构,其设计精巧地支撑了上述目标。模型输入多视图图像,首先使用预训练的DINOv2提取图像块级Token。随后,通过24个注意力模块进行层内自注意力和全局跨视图注意力操作,将所有视图的Token编码为强大的统一Token表示Ti。这一步骤是融合多视角信息、建立3D一致性的关键。
接着,统一的Token被送入两个并行的解码器头:几何头(Geometry Head)和实例头(Instance Head)。几何头继承自VGGT,负责预测相机参数、深度图和稠密点云,完成几何重建。实例头则采用DPT-like架构,解码出每个像素的实例特征。为了让实例特征能够感知到精细的几何边界(如物体的轮廓),团队设计了一个跨模态融合块。该模块通过滑动窗口交叉注意力机制,将几何头输出的空间结构特征高效地嵌入到实例表示中,从而显著增强了实例分割在复杂边界处的准确性。

监督信号的设计同样巧妙。为了让模型仅从2D图像输入中学习到3D一致的实例特征,团队设计了一种多视角对比损失。其核心思想是:在特征空间中,强制拉近来自不同相机视角、但属于同一个真实3D实例的像素特征;同时,推开属于不同实例的特征。这种基于对比学习的监督方式,不依赖于任何具体的语义标签,而是引导模型发现数据中内在的3D一致性规律,是IGGT能够实现高质量实例解耦的内在驱动力。
综上所述,IGGT通过其创新的统一Transformer架构、大规模高质量数据集、实例解耦的范式以及精巧的模型设计与监督策略,成功攻克了3D几何与语义理解长期割裂的难题。它不仅为3D场景理解提供了一个强大的新工具,其“即插即用”的设计哲学更为未来与快速迭代的多模态大模型生态结合铺平了道路,有望在机器人导航、增强现实、自动驾驶等需要深度空间智能的领域产生深远影响。
— 图片补充 —







关注“鲸栖”小程序,掌握最新AI资讯
本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/8662
