摩尔线程LiteGS斩获SIGGRAPH Asia银奖:3D高斯溅射技术突破60秒高质量重建极限

在近期于香港举办的SIGGRAPH Asia 2025国际图形学顶级学术会议上,摩尔线程凭借其自主研发的3D高斯溅射(3DGS)基础库LiteGS,在3DGS重建挑战赛中荣获银奖。这一成就不仅展示了摩尔线程在算法创新与软硬件协同优化方面的深厚实力,也标志着该公司在新一代图形渲染技术领域获得了学术界的高度认可。

摩尔线程LiteGS斩获SIGGRAPH Asia银奖:3D高斯溅射技术突破60秒高质量重建极限

3D高斯溅射作为2023年提出的革命性三维场景表示与渲染技术,通过参数化的三维高斯分布实现了渲染质量、效率与资源占用的卓越平衡。相较于传统的神经辐射场技术,3DGS在保持高保真渲染质量的同时,将渲染效率提升了数百至上千倍,在实时渲染、虚拟现实、增强现实及多模态融合等应用场景中展现出强大的适应性与扩展潜力。

摩尔线程LiteGS斩获SIGGRAPH Asia银奖:3D高斯溅射技术突破60秒高质量重建极限

该技术的突破性进展不仅限于图形渲染领域,在具身智能等前沿方向同样具有重要基础价值。高质量、低延迟的三维环境建模是智能体理解并与真实世界交互的关键,3DGS凭借其高保真场景显示能力、快速优化特性和轻量级架构,为构建精确的世界模型提供了可靠技术支撑,显著提升了路径规划、环境感知与复杂操作任务的执行能力。随着人工智能技术向物理世界交互不断延伸,3DGS正逐渐成为具身智能训练场景中的核心基础技术之一。

本次竞赛设置了极具挑战性的技术目标:参赛团队需在60秒内,基于主办方提供的真实终端视频序列、存在误差的相机轨迹及终端SLAM点云数据,完成高质量的3DGS重建任务。

摩尔线程LiteGS斩获SIGGRAPH Asia银奖:3D高斯溅射技术突破60秒高质量重建极限

竞赛采用峰值信噪比与重建速度作为综合评价指标,在公开透明的评估体系下得出最终排名。

摩尔线程LiteGS斩获SIGGRAPH Asia银奖:3D高斯溅射技术突破60秒高质量重建极限

目前,3DGS重建挑战赛的完整结果及相关数据集已通过SIGGRAPH Asia官方平台向全球研究社区开放。

摩尔线程AI团队以“MT-AI”参赛编号进入决赛阶段,在重建精度与效率两项关键指标上均取得了突出表现:平均PSNR达到27.58,位列前三;重建耗时仅34秒,显著领先于多数参赛队伍。凭借行业领先的3DGS算法构建能力与系统级优化优势,摩尔线程最终荣获大赛银奖。

摩尔线程LiteGS斩获SIGGRAPH Asia银奖:3D高斯溅射技术突破60秒高质量重建极限

为促进三维重建与渲染技术的开放协作与持续发展,摩尔线程正式开源其3DGS基础库LiteGS。该技术通过数百万各向异性三维高斯基元表示三维场景,在自动驾驶、虚拟现实、数字孪生等领域展现出巨大应用潜力。然而,传统3DGS训练过程往往需要数十分钟甚至数小时,成为制约其广泛部署的主要瓶颈。现有优化方案多局限于单一层面,难以系统性解决训练过程中的性能约束。

LiteGS首次实现了从底层GPU系统、中层数据管理到高层算法设计的全链路协同优化:在GPU系统层面,创新提出基于“One Warp Per Tile”原则的“Warp-Based Raster”新范式,将梯度聚合简化为单次Warp内归约,结合扫描线算法与混合精度策略,大幅降低梯度计算开销;在数据管理层,引入“聚类-剔除-压缩”流水线,借助Morton编码以极低开销实现高斯基元的动态空间重排,显著提升数据局部性;在算法设计层,采用鲁棒的像素不透明度梯度方差作为致密化核心判据,精准识别欠拟合区域。

摩尔线程LiteGS斩获SIGGRAPH Asia银奖:3D高斯溅射技术突破60秒高质量重建极限

摩尔线程LiteGS斩获SIGGRAPH Asia银奖:3D高斯溅射技术突破60秒高质量重建极限

通过系统与算法的深度协同优化,LiteGS在训练效率与重建质量上均实现了显著突破。在达到同等渲染质量时,LiteGS可获得高达10.8倍的训练加速,且模型参数量减少50%以上;在相同参数量配置下,PSNR指标超出主流方案0.2-0.4dB,训练时间缩短3.8至7倍;针对轻量化模型,LiteGS仅需原版3DGS约10%的训练时间与20%的参数量即可实现同等质量,展现出卓越的工程实用性与技术前瞻性。

摩尔线程此次在国际图形学顶会赛事中的获奖,不仅是一次技术竞赛的胜利,更是对全球图形计算技术发展趋势的准确把握与战略引领。作为图形学领域的重要发展方向,3DGS技术对算法与硬件协同提出了极高要求。摩尔线程通过创新的算法设计、深度优化的自研硬件架构以及高效的软硬件协同,在本次赛事中展现了卓越的综合技术能力。这一成就印证了摩尔线程在图形智能计算领域技术路径的前瞻性与工程可行性,体现了公司将前沿研究成果快速转化为实践应用的核心竞争力。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/4580

(0)
上一篇 2025年12月17日 下午12:30
下一篇 2025年12月17日 下午1:15

相关推荐

  • 从AI先驱到华尔街巨鳄:Hinton首位博士生的跨界传奇

    一张照片,一段往事 最近,一张老照片在AI圈内重新引发了热议。 这张照片是1986年CMU首届联结主义夏令营的合影。 有人将这张合影誉为AI界的“索尔维会议”。对于研究神经网络、计算神经科学和计算语言学的后辈而言,几乎都能在这张照片里找到自己领域的开创者。 照片中被圈出的,是深度学习的奠基人、图灵奖得主Geoffrey Hinton。正是在他的坚持下,神经网…

    2026年1月10日
    8500
  • Qoder深度评测:国产AI编程工具如何颠覆真实软件研发?

    在当今快速迭代的软件开发领域,程序员们普遍面临着一个棘手的挑战:理解和维护大型、复杂的代码库。无论是接手遗留系统、参与开源项目,还是协作企业级应用,开发者往往需要耗费数周甚至数月的时间来梳理代码结构、理解业务逻辑。传统方法依赖人工阅读、文档搜索和团队沟通,效率低下且容易出错。 近期,一款名为Qoder的国产AI编程工具横空出世,旨在彻底改变这一现状。Qode…

    2025年11月27日
    11500
  • 突破CLIP瓶颈:HiMo-CLIP如何通过语义层级建模实现长文本图像检索SOTA

    在多模态人工智能领域,视觉-语言对齐一直是核心挑战之一。传统的CLIP模型虽然在短文本图像检索上表现出色,但在处理长文本描述时却暴露出明显的局限性:随着文本描述的详细化,模型的匹配分数不升反降,这与人类的认知逻辑背道而驰。最近,中国联通数据科学与人工智能研究院团队在AAAI 2026上发表的研究成果HiMo-CLIP,通过创新的语义层级建模方法,成功解决了这…

    2025年12月1日
    7800
  • AI反派困境:Moral RolePlay基准揭示大模型道德角色扮演的深层局限

    在人类叙事艺术中,复杂角色的塑造始终是衡量作品深度的核心标尺。从莎士比亚笔下的麦克白到《蝙蝠侠》中的小丑,反派角色的心理深度与道德复杂性往往成为故事张力的关键来源。当人工智能开始涉足创意生成领域时,一个根本性问题浮现:这些基于海量人类数据训练的大语言模型,能否真正理解并模拟人类道德光谱中的阴暗面?腾讯混元数字人团队与中山大学联合发布的「Moral RoleP…

    2025年11月22日
    7400
  • Hulu-Med:开源统一医学视觉语言大模型,破解医疗AI碎片化与透明度困局

    在医疗人工智能领域,长期以来存在着两大核心挑战:任务与模态的碎片化,以及技术实现的不透明性。传统医学AI模型通常针对特定任务(如影像诊断、病理分析或手术指导)和单一模态(如2D图像、3D体积或文本)进行优化,形成了众多性能卓越但彼此孤立的“专科助手”。这种碎片化架构不仅导致临床应用中需要拼凑复杂系统来处理多模态数据,增加了维护成本,更限制了AI从跨模态关联中…

    2025年11月13日
    7800

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注