摩尔线程LiteGS开源:以全栈协同优化攻克3DGS训练瓶颈,为具身智能提供高效三维建模引擎

2025年12月,在香港举办的SIGGRAPH Asia 2025大会上,一场聚焦3D Gaussian Splatting(3DGS)重建技术的国际挑战赛结果揭晓。中国芯片与计算公司摩尔线程凭借其自研的3DGS基础库LiteGS,在3DGS重建挑战赛中脱颖而出,荣获银奖。这一成绩不仅是对其算法与工程能力的认可,更标志着国产计算技术在神经渲染这一前沿领域已具备国际竞争力。

摩尔线程LiteGS开源:以全栈协同优化攻克3DGS训练瓶颈,为具身智能提供高效三维建模引擎

3DGS,即三维高斯溅射,自2023年提出以来,已成为计算机图形学与视觉领域的一场范式革命。它通过使用数百万个可参数化的三维高斯椭球(称为“高斯基元”)来表示场景,实现了渲染质量、速度与资源消耗之间的卓越平衡。与传统神经辐射场(NeRF)技术相比,3DGS能在保持甚至提升视觉保真度的同时,将新视角的渲染速度提升数百至上千倍,达到实时交互的水平。这种突破性进展,使其迅速在虚拟现实(VR)、增强现实(AR)、数字孪生、自动驾驶仿真等需要高质量实时三维可视化的领域获得广泛应用前景。

摩尔线程LiteGS开源:以全栈协同优化攻克3DGS训练瓶颈,为具身智能提供高效三维建模引擎

摩尔线程LiteGS开源:以全栈协同优化攻克3DGS训练瓶颈,为具身智能提供高效三维建模引擎

然而,3DGS技术从“可用”到“好用”,仍面临一个核心瓶颈:尽管其渲染(推理)速度极快,但模型的训练(优化)过程却异常耗时。一个高质量3DGS模型的训练通常需要数十分钟甚至数小时,这严重制约了其在需要快速迭代或实时重建场景(如机器人交互、即时AR内容创建)中的实用化进程。现有优化方案多从算法或硬件单一方面入手,缺乏系统性的全栈协同设计,难以从根本上突破性能天花板。

摩尔线程LiteGS开源:以全栈协同优化攻克3DGS训练瓶颈,为具身智能提供高效三维建模引擎

正是在此背景下,摩尔线程LiteGS的价值得以凸显。本次SIGGRAPH Asia的3DGS重建挑战赛设置了严苛的实用化导向任务:参赛者需在60秒内,仅凭一段10-30秒的真实终端视频、存在误差的相机轨迹以及终端SLAM(同步定位与地图构建)点云,完成高质量的3DGS重建。竞赛以峰值信噪比(PSNR,衡量重建质量)和重建总耗时作为核心评价指标。摩尔线程AI团队(参赛编号MT-AI)交出的答卷令人瞩目:在平均PSNR达到27.58(位列前三)的高质量前提下,其重建总耗时仅需34秒,显著领先于多数参赛队伍,最终斩获银奖。这一成绩直观证明了LiteGS在精度与效率之间取得的极致平衡。

摩尔线程LiteGS开源:以全栈协同优化攻克3DGS训练瓶颈,为具身智能提供高效三维建模引擎

摩尔线程LiteGS开源:以全栈协同优化攻克3DGS训练瓶颈,为具身智能提供高效三维建模引擎

摩尔线程实现这一突破的关键,在于其首次实现了从底层GPU系统、中层数据管理到高层算法设计的全链路协同优化,而非局部修补。具体而言,LiteGS的创新体系体现在三个层面:

在**GPU系统与计算范式**层面,LiteGS创新性地提出了基于“One Warp Per Tile”原则的“Warp-Based Raster”光栅化新范式。它将传统复杂的梯度聚合计算简化为一次Warp(GPU线程束)内的归约操作,并结合扫描线算法与混合精度策略,大幅降低了梯度计算的开销,同时实现了高效的像素级统计,为上层算法提供了强有力的底层支撑。

在**数据管理与调度**层面,面对3DGS中数以百万计、空间分布稀疏的高斯基元,LiteGS引入了一套“聚类-剔除-压缩”的智能流水线。它利用Morton编码对高斯基元进行动态的空间重排,以极低开销显著提升了数据访问的局部性,从而有效减少了GPU缓存失效和Warp执行路径的分化,确保了计算单元的高效利用。

在**核心算法设计**层面,LiteGS摒弃了原有方案中较为模糊的致密化(Densification)度量指标,转而采用更为鲁棒的像素不透明度梯度方差作为核心判据。这一改进能够更精准地识别场景中的欠拟合区域,指导高斯基元的自适应增删,其轻量化的计算过程直接受益于底层新型光栅化器提供的高效统计能力,形成了算法与系统间的正向循环。

摩尔线程LiteGS开源:以全栈协同优化攻克3DGS训练瓶颈,为具身智能提供高效三维建模引擎

摩尔线程LiteGS开源:以全栈协同优化攻克3DGS训练瓶颈,为具身智能提供高效三维建模引擎

摩尔线程LiteGS开源:以全栈协同优化攻克3DGS训练瓶颈,为具身智能提供高效三维建模引擎

这种全栈协同优化的威力,通过详实的性能数据得以验证。在达到与当前质量最优开源方案同等PSNR水平时,LiteGS能实现高达10.8倍的训练加速,同时模型参数量减少一半以上,显著降低了存储与传输开销。在控制参数量相同的情况下,LiteGS的PSNR指标能超出主流方案0.2-0.4 dB,而训练时间则缩短了3.8至7倍。尤为突出的是,在面向轻量化、高效率的应用场景时,LiteGS仅需原版3DGS约10%的训练时间与20%的参数量,即可实现同等的渲染质量。这为其在资源受限的边缘设备或对延迟极度敏感的应用中部署扫清了障碍。

摩尔线程LiteGS开源:以全栈协同优化攻克3DGS训练瓶颈,为具身智能提供高效三维建模引擎

LiteGS的技术突破,对于正处爆发前夜的**具身智能(Embodied AI)** 领域具有深远意义。具身智能要求智能体(如机器人)能够理解并与复杂的物理环境进行实时、安全的交互。其核心挑战之一在于如何快速、准确地构建并更新对周围世界的三维认知模型。传统基于点云或体素的方法在精度或效率上往往难以兼顾。3DGS技术凭借其高保真、轻量级和快速渲染的特性,为构建作为智能体“眼睛”和“大脑”基础的世界模型提供了理想的技术路径。LiteGS通过攻克训练瓶颈,使得快速从机器人第一视角视频流中重建出可用于路径规划、物体操纵和场景理解的高质量三维环境成为可能,从而加速了具身智能从实验室走向实际应用的进程。

摩尔线程LiteGS开源:以全栈协同优化攻克3DGS训练瓶颈,为具身智能提供高效三维建模引擎

摩尔线程此次将LiteGS在GitHub平台全面开源,其意义远超一次竞赛的胜利或单个项目的发布。这首先体现了其“以全栈能力赋能产业”的技术战略。从自研GPU硬件到深度优化的系统软件,再到顶层的核心算法库,摩尔线程正在构建一个从硅到软件、再到应用场景的完整计算生态。其次,这为全球3DGS研究社区与产业界提供了一个高性能的基准实现与开发平台,有望吸引更多开发者共同推动神经渲染技术的演进。最后,这也向国际市场展示了中国科技公司在底层基础软件与前沿交叉学科(图形学x人工智能)上日益增强的创新实力与工程化能力。

摩尔线程LiteGS开源:以全栈协同优化攻克3DGS训练瓶颈,为具身智能提供高效三维建模引擎

展望未来,随着3DGS及其优化技术如LiteGS的成熟,我们有望看到其在更多领域开花结果:从电影游戏的高效内容制作,到工业设计的实时数字样机评审;从元宇宙中栩栩如生的虚拟场景构建,到智慧城市高精度数字孪生的动态更新。而作为底层使能技术,高效的三维感知与建模能力,无疑是人工智能迈向“理解并操作真实物理世界”这一终极目标的关键阶梯。摩尔线程LiteGS的开源,正是为攀登这一阶梯递上了一把经过精心锻造的“神兵利器”。

摩尔线程LiteGS开源:以全栈协同优化攻克3DGS训练瓶颈,为具身智能提供高效三维建模引擎

摩尔线程LiteGS开源:以全栈协同优化攻克3DGS训练瓶颈,为具身智能提供高效三维建模引擎


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/9308

(0)
上一篇 2025年12月17日 下午6:35
下一篇 2025年12月17日 下午7:01

相关推荐

  • EfficientFlow:融合等变建模与流匹配,破解生成式策略学习效率瓶颈

    生成式模型在机器人与具身智能领域正迅速崛起,成为从高维视觉观测直接生成复杂动作策略的重要范式。这类方法在操作、抓取等任务中展现出卓越的灵活性与适应性,然而在真实系统部署时,却面临两大根本性挑战:一是训练过程极度依赖大规模演示数据,数据获取成本高昂且标注困难;二是推理阶段需要大量迭代计算,导致动作生成延迟严重,难以满足实时控制需求。这些瓶颈严重制约了生成式策略…

    2025年12月16日
    7700
  • Meta引领AI绩效革命:从工具依赖到能力量化的职场范式重构

    在硅谷的科技浪潮中,Meta近期宣布的一项内部政策变革,正引发业界对人工智能与职场生态关系的深度思考。该公司计划从2026年起,将AI使用情况正式纳入员工绩效考核体系,这不仅是技术应用的简单延伸,更是对现代工作价值评估机制的一次结构性重塑。 这一决策的核心逻辑在于构建“AI评估AI使用”的闭环系统:员工通过AI工具提升工作效率,而公司则通过AI系统量化员工对…

    2025年11月17日
    8300
  • LeMiCa:突破视频生成瓶颈的全局最优缓存加速框架

    当前,基于Transformer架构的DiT等扩散模型在视频生成领域取得了显著进展,生成效果逐渐逼近真实拍摄水平。然而,这些模型普遍面临推理时间长、算力成本高、生成速度难以提升的瓶颈问题。随着视频生成长度增加和分辨率提高,这一瓶颈已成为制约视频创作体验的关键障碍。 来自中国联通数据科学与人工智能研究院的研究团队提出了LeMiCa(Lexicographic …

    2025年11月26日
    8500
  • 视频生成新范式:FFGo揭示首帧作为概念记忆体的革命性发现

    在视频生成技术快速发展的今天,传统认知将视频首帧视为时间轴的起点和动画的起始画面。然而,马里兰大学、南加州大学和麻省理工学院联合研究团队的最新论文《First Frame Is the Place to Go for Video Content Customization》彻底颠覆了这一观念。研究发现,视频生成模型中的首帧实际上扮演着更为关键的角色——它并非…

    2025年12月5日
    8700
  • 谷歌联合创始人谢尔盖·布林斯坦福对谈:AI浪潮下的学术基因、Transformer遗憾与未来大学形态

    在斯坦福大学工程学院百年庆典的收官活动中,谷歌联合创始人谢尔盖·布林重返母校,与校长Jonathan Levin及工程学院院长Jennifer Widom展开了一场深度对话。这场对话不仅回顾了谷歌二十余年的创新历程,更触及了人工智能时代下学术界与产业界的核心命题——从Transformer论文的错失良机,到未来大学的形态演变,布林以亲历者视角提供了珍贵的一瞥…

    AI产业动态 2025年12月14日
    9200

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注