Visionary:基于WebGPU与ONNX的下一代世界模型渲染平台,全面超越SparkJS

该工作由上海人工智能实验室钟志航团队联合四川大学、东京大学、上海交通大学、西北工业大学共同完成。

在李飞飞团队 WorldLabs 推出 Marble、引爆「世界模型(World Model)」热潮之后,一个现实问题逐渐浮出水面:世界模型的可视化与交互,依然严重受限于底层 Web 端渲染能力。

Marble 所依赖的基于 WebGL 的 3D Gaussian Splatting (3DGS) 渲染器 SparkJS,让世界模型首次在浏览器中「跑起来」,但也暴露出明显瓶颈:大场景以及复杂场景下,CPU 排序成为性能天花板,动态场景与生成模型难以接入。

近日,开源项目 Visionary 给出了一个截然不同的答案:基于 WebGPUONNX,在浏览器中实现真正的动态 3DGS / 4DGS 实时渲染,并在多项测试中全面超越 SparkJS。

Visionary:基于WebGPU与ONNX的下一代世界模型渲染平台,全面超越SparkJS
  • 论文标题:Visionary: The World Model Carrier Built on WebGPU-Powered Gaussian Splatting Platform
  • 技术报告:https://arxiv.org/abs/2512.08478
  • GitHub:https://github.com/Visionary-Laboratory/visionary
  • 在线 Editor:https://visionary-laboratory.github.io/visionary/index_visionary.html

World Model 的「最后一公里」,卡在 Web 端渲染

相比 Genie3 等视频生成范式的世界模型,其对算力的依赖极为庞大,距离在 Web 端实现高质量、实时运行仍有不小差距。反观神经渲染路线,尤其是 3D Gaussian Splatting,凭借其高效性,已经成为构建世界模型的重要表示形式。

3DGS 让高质量、实时的 3D 世界成为可能,但在实际落地中,仍存在明显断层:

  • 桌面端 / 引擎方案(SIBR、Unity、Unreal):性能强,但依赖沉重、部署复杂,难以传播与复现;
  • 现有 Web 端方案(SparkJS、SuperSplat):受限于 WebGL 管线,主要支持静态或预计算高斯,难以承载实时推理的动态 3DGS、Neural Avatar,更难引入生成式模型。

World Model 想要真正「被看见、被交互」,Web 端渲染底座成为关键瓶颈。

Visionary:不是 Viewer,而是 World Model 的 Web 渲染基座

Visionary 的定位并非「又一个 3DGS 查看器」,而是一个面向 World Model / 空间智能的 Web 原生渲染基座 (Rendering Substrate):

  • WebGPU 原生架构:将 GPU 计算与渲染真正带入浏览器,替代 WebGL;
  • ONNX 驱动的统一接口:将「每帧高斯生成 / 更新」抽象为标准化的模型契约;
  • 动态友好设计:3DGS、4DGS、Neural Avatar 以及生成式后处理均可在线运行。

Visionary 的核心设计在于提出了 Gaussian Generator Contract

Visionary:基于WebGPU与ONNX的下一代世界模型渲染平台,全面超越SparkJS

将各类 3DGS、4DGS 及 Avatar 方法统一导出为 ONNX 标准,每帧仅需输入相机、时间等轻量控制信号,即可由 ONNX 输出完整的高斯属性缓冲。

这种设计使得渲染器不再受限于具体的算法细节,首次在浏览器端实现了每帧动态生成与更新高斯、同一渲染器承载多种 3DGS 变体以及接入生成式后处理(如风格化、增强)的能力。

性能实测:全面超越 SparkJS

Visionary:基于WebGPU与ONNX的下一代世界模型渲染平台,全面超越SparkJS

实验数据显示,在相同 3DGS 资源条件下,Visionary 的渲染效率显著优于当前主流 Web 端查看器。

在包含数百万高斯点的典型场景中,Visionary 将排序与预处理完全迁移至 GPU (WebGPU),显著降低端到端延迟,而 SparkJS 的性能瓶颈主要集中在 CPU 排序阶段。

不止更快:渲染正确性与画质同样重要

Visionary:基于WebGPU与ONNX的下一代世界模型渲染平台,全面超越SparkJS

Visionary 采用逐帧 GPU 全局排序,彻底避免了类似 SparkJS 在快速视角变化下出现的 lazy sorting 视觉伪影。在 Mip-NeRF360 等基准上,画质指标与 SparkJS 持平甚至略有提升。

同时避免了 SuperSplat 等方案中的逐物体排序混合错误。在多模型混合场景下,仍能保证透明度渲染正确。

面向研究、创作与工业的统一平台

Visionary:基于WebGPU与ONNX的下一代世界模型渲染平台,全面超越SparkJS
  • 对研究者:任意 3DGS 变体只要能导出 ONNX,即可快速复现、对比与展示;
  • 对创作者:无需安装专业软件,即可在浏览器中完成编辑、录制与渲染;
  • 对工业界:可将其应用于数字孪生、仿真、XR、具身智能等大规模实时场景。

Visionary 已在 GitHub 完全开源,采用宽松协议,并已获得 Firefox / Chrome WebGPU 相关开发者的关注与反馈。

Visionary:基于WebGPU与ONNX的下一代世界模型渲染平台,全面超越SparkJS

目前已原生支持:MLP-based 3DGS (Scaffold-GS)、4D Gaussian Splatting、Neural Avatar (LHM、GauHuman、R³-Avatar 等)、ONNX 生成式后处理(风格化、增强),全部渲染流程均在浏览器端完成。

团队表示,Visionary 只是迈向统一世界模型框架的第一步。未来将进一步探索:

  • 物理交互增强(碰撞检测与 Mesh 管线融合)
  • 物理感知建模(结合 MPM 等方法模拟真实动力学)
  • 空间智能体(基于多模态大模型的空间推理与交互)
  • 下游应用桥接(支持具身 AI 的 Sim-to-Real 迁移)

结语

World Model 的竞争,最终会回到一个问题:谁能把复杂世界,稳定、快速、低门槛地呈现出来?

Visionary 给出的答案是:用 WebGPU + ONNX,把世界模型真正带到 Web。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/14178

(0)
上一篇 2025年12月21日 下午12:19
下一篇 2025年12月21日 下午12:19

相关推荐

  • 数学圣殿IPAM获五年续命资金:陶哲轩奔走呼吁背后的美国科研危机

    近日,菲尔兹奖得主陶哲轩在社交媒体上宣布,加州大学洛杉矶分校(UCLA)的纯数学与应用数学研究所(IPAM)已获得美国国家科学基金会(NSF)2025年至2030年的五年资助。这一消息标志着这座被誉为“数学圣殿”的研究机构暂时避免了关门危机,但陶哲轩同时指出,这笔资金相较于上一轮周期大幅缩水,距离正常运转仍有缺口。 IPAM成立于2000年,作为NSF资助的…

    2025年12月3日
    20200
  • Vidu Q3:中国AI视频新王者,全球首个16秒音视频直出模型震撼发布

    金磊 发自 凹非寺 量子位 | 公众号 QbitAI 开年第一个月,国产AI视频生成领域竞争激烈。 AI视频生成圈迎来重磅发布——全球首个能够一次性直接生成16秒音视频的模型。 例如,用它来制作一段真人版《火影忍者》第四次忍界大战的名场面: 从画面、台词到音效,都颇具原版日漫的风格。 制作这段真人剧的模型,正是生数科技最新推出的Vidu Q3。 深度体验后,…

    2026年1月30日
    23600
  • 软硬一体:讯飞星火X1.5引领国产大模型进入物理世界的新纪元

    在人工智能技术飞速发展的今天,全球科技巨头们正围绕云端算法展开激烈竞争。然而,中国科技企业科大讯飞却选择了一条截然不同的道路——通过软硬一体的创新策略,让AI真正走出数据中心,进入复杂的物理世界。这一战略的核心成果,便是基于全国产算力训练的讯飞星火X1.5大模型及其配套的硬件生态系统。 讯飞星火X1.5的发布标志着国产大模型技术的重要突破。该模型基于MoE(…

    2025年11月6日
    31600
  • 超越基础RAG:构建面向学术论文的智能检索系统实战

    在AI工程实践中,你很快会意识到:并不存在一张可以完全照搬的“通用蓝图”。 对于检索增强生成(RAG)中的基础检索(“R”),标准流程包括文档分块、查询语义搜索、结果重排等。这套流程已广为人知。 但随着系统深入应用,一个问题会浮现:如果一个系统对一篇文档的理解仅限于几个零散的文本块,我们如何能称其为“智能”? 那么,如何确保系统获得足够的信息,从而做出“聪明…

    2026年1月19日
    18600
  • 解码新范式:北大团队提出Language Ranker框架,用推荐系统思维重塑LLM生成过程

    在大语言模型(LLM)的快速发展浪潮中,学术界和工业界的研究焦点普遍集中于模型架构优化、参数规模扩展、训练数据增强以及奖励信号强化等方向,这些努力本质上都是在优化模型的输出概率分布。然而,一个长期被相对忽视的关键环节是:如何将这些复杂的概率分布高效、精准地转化为高质量的文本生成结果——即解码(decoding)阶段。传统的解码策略,如贪婪解码、束搜索(Bea…

    2025年11月30日
    19900