Visionary:基于WebGPU与ONNX的下一代世界模型渲染平台,全面超越SparkJS

该工作由上海人工智能实验室钟志航团队联合四川大学、东京大学、上海交通大学、西北工业大学共同完成。

在李飞飞团队 WorldLabs 推出 Marble、引爆「世界模型(World Model)」热潮之后,一个现实问题逐渐浮出水面:世界模型的可视化与交互,依然严重受限于底层 Web 端渲染能力。

Marble 所依赖的基于 WebGL 的 3D Gaussian Splatting (3DGS) 渲染器 SparkJS,让世界模型首次在浏览器中「跑起来」,但也暴露出明显瓶颈:大场景以及复杂场景下,CPU 排序成为性能天花板,动态场景与生成模型难以接入。

近日,开源项目 Visionary 给出了一个截然不同的答案:基于 WebGPUONNX,在浏览器中实现真正的动态 3DGS / 4DGS 实时渲染,并在多项测试中全面超越 SparkJS。

Visionary:基于WebGPU与ONNX的下一代世界模型渲染平台,全面超越SparkJS
  • 论文标题:Visionary: The World Model Carrier Built on WebGPU-Powered Gaussian Splatting Platform
  • 技术报告:https://arxiv.org/abs/2512.08478
  • GitHub:https://github.com/Visionary-Laboratory/visionary
  • 在线 Editor:https://visionary-laboratory.github.io/visionary/index_visionary.html

World Model 的「最后一公里」,卡在 Web 端渲染

相比 Genie3 等视频生成范式的世界模型,其对算力的依赖极为庞大,距离在 Web 端实现高质量、实时运行仍有不小差距。反观神经渲染路线,尤其是 3D Gaussian Splatting,凭借其高效性,已经成为构建世界模型的重要表示形式。

3DGS 让高质量、实时的 3D 世界成为可能,但在实际落地中,仍存在明显断层:

  • 桌面端 / 引擎方案(SIBR、Unity、Unreal):性能强,但依赖沉重、部署复杂,难以传播与复现;
  • 现有 Web 端方案(SparkJS、SuperSplat):受限于 WebGL 管线,主要支持静态或预计算高斯,难以承载实时推理的动态 3DGS、Neural Avatar,更难引入生成式模型。

World Model 想要真正「被看见、被交互」,Web 端渲染底座成为关键瓶颈。

Visionary:不是 Viewer,而是 World Model 的 Web 渲染基座

Visionary 的定位并非「又一个 3DGS 查看器」,而是一个面向 World Model / 空间智能的 Web 原生渲染基座 (Rendering Substrate):

  • WebGPU 原生架构:将 GPU 计算与渲染真正带入浏览器,替代 WebGL;
  • ONNX 驱动的统一接口:将「每帧高斯生成 / 更新」抽象为标准化的模型契约;
  • 动态友好设计:3DGS、4DGS、Neural Avatar 以及生成式后处理均可在线运行。

Visionary 的核心设计在于提出了 Gaussian Generator Contract

Visionary:基于WebGPU与ONNX的下一代世界模型渲染平台,全面超越SparkJS

将各类 3DGS、4DGS 及 Avatar 方法统一导出为 ONNX 标准,每帧仅需输入相机、时间等轻量控制信号,即可由 ONNX 输出完整的高斯属性缓冲。

这种设计使得渲染器不再受限于具体的算法细节,首次在浏览器端实现了每帧动态生成与更新高斯、同一渲染器承载多种 3DGS 变体以及接入生成式后处理(如风格化、增强)的能力。

性能实测:全面超越 SparkJS

Visionary:基于WebGPU与ONNX的下一代世界模型渲染平台,全面超越SparkJS

实验数据显示,在相同 3DGS 资源条件下,Visionary 的渲染效率显著优于当前主流 Web 端查看器。

在包含数百万高斯点的典型场景中,Visionary 将排序与预处理完全迁移至 GPU (WebGPU),显著降低端到端延迟,而 SparkJS 的性能瓶颈主要集中在 CPU 排序阶段。

不止更快:渲染正确性与画质同样重要

Visionary:基于WebGPU与ONNX的下一代世界模型渲染平台,全面超越SparkJS

Visionary 采用逐帧 GPU 全局排序,彻底避免了类似 SparkJS 在快速视角变化下出现的 lazy sorting 视觉伪影。在 Mip-NeRF360 等基准上,画质指标与 SparkJS 持平甚至略有提升。

同时避免了 SuperSplat 等方案中的逐物体排序混合错误。在多模型混合场景下,仍能保证透明度渲染正确。

面向研究、创作与工业的统一平台

Visionary:基于WebGPU与ONNX的下一代世界模型渲染平台,全面超越SparkJS
  • 对研究者:任意 3DGS 变体只要能导出 ONNX,即可快速复现、对比与展示;
  • 对创作者:无需安装专业软件,即可在浏览器中完成编辑、录制与渲染;
  • 对工业界:可将其应用于数字孪生、仿真、XR、具身智能等大规模实时场景。

Visionary 已在 GitHub 完全开源,采用宽松协议,并已获得 Firefox / Chrome WebGPU 相关开发者的关注与反馈。

Visionary:基于WebGPU与ONNX的下一代世界模型渲染平台,全面超越SparkJS

目前已原生支持:MLP-based 3DGS (Scaffold-GS)、4D Gaussian Splatting、Neural Avatar (LHM、GauHuman、R³-Avatar 等)、ONNX 生成式后处理(风格化、增强),全部渲染流程均在浏览器端完成。

团队表示,Visionary 只是迈向统一世界模型框架的第一步。未来将进一步探索:

  • 物理交互增强(碰撞检测与 Mesh 管线融合)
  • 物理感知建模(结合 MPM 等方法模拟真实动力学)
  • 空间智能体(基于多模态大模型的空间推理与交互)
  • 下游应用桥接(支持具身 AI 的 Sim-to-Real 迁移)

结语

World Model 的竞争,最终会回到一个问题:谁能把复杂世界,稳定、快速、低门槛地呈现出来?

Visionary 给出的答案是:用 WebGPU + ONNX,把世界模型真正带到 Web。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/14178

(0)
上一篇 2025年12月21日 下午12:19
下一篇 2025年12月21日 下午12:19

相关推荐

  • 华为诺亚方舟实验室突破Transformer推理瓶颈:高阶注意力机制Nexus的架构革命

    在人工智能领域,Transformer架构凭借其强大的序列建模能力,已成为大语言模型(LLM)和各类生成式AI应用的基石。然而,随着模型规模和应用场景的不断扩展,其核心组件——自注意力机制(Self-Attention)在处理复杂逻辑推理任务时的局限性日益凸显。传统注意力机制本质上是一种基于配对比较的线性投影操作,擅长捕捉长距离依赖和表面关联,但在面对需要多…

    2025年12月5日
    10700
  • AI教父Hinton与弟子Ilya的Scaling Law之争:数据瓶颈能否被AI自我进化突破?

    我并不认为Scaling Law已经完全结束了 。 正当学生Ilya为Scaling Law“泼下冷水”时,他的老师、AI教父Geoffrey Hinton却发表了上述截然相反的观点。 这一师徒观点的对立,不禁让人回想起两件往事。 一是Ilya几乎从学生时代起就坚信Scaling Law,不仅积极向身边人推介,还将这套理念带入了OpenAI,堪称Scalin…

    2026年1月1日
    9900
  • AlphaFold五周年:从蛋白质结构预测到AI大模型融合的生命科学新纪元

    正值AlphaFold问世五周年之际,其核心设计者、诺贝尔化学奖得主John Jumper公开透露了该技术的下一步发展方向:与更广泛的AI大模型进行深度融合。这一声明标志着AlphaFold正从单一的结构预测工具,向具备科学推理能力的综合性AI科研平台演进。 回顾过去五年,AlphaFold已彻底改变了结构生物学的研究范式。据统计,该技术已帮助全球超过300…

    2025年11月28日
    7900
  • Bee项目:以数据质量革命重塑全开源多模态大模型格局

    在人工智能快速发展的浪潮中,多模态大模型(MLLM)已成为连接视觉与语言智能的关键桥梁。然而,长期以来,全开源MLLM的性能始终被闭源和半开源模型所压制,形成了明显的技术壁垒。清华大学与腾讯混元团队联合推出的Bee项目,正是对这一困境的深刻回应。该项目不仅是一个模型,更是一套全栈式、完全开放的解决方案,旨在通过数据质量革命,从根本上拉近开源社区与顶尖模型之间…

    2025年11月11日
    8800
  • 突破PEFT合并瓶颈:方向鲁棒性理论揭示与RobustMerge方案解析

    在人工智能技术快速演进的浪潮中,多模态大模型已成为推动产业进步的核心引擎。然而,随着模型参数规模呈指数级增长,全量微调(Full Fine-Tuning, FFT)所需的海量计算资源已成为制约技术民主化的重要瓶颈。参数高效微调(Parameter-Efficient Fine-Tuning, PEFT)技术,特别是LoRA(Low-Rank Adaptati…

    2025年11月10日
    8100