
2025年,人工智能领域正经历一场从语言智能向物理世界智能的深刻范式转移。”世界模型”这一概念已从学术构想演变为科技巨头竞逐的核心战场,其目标在于构建能够理解、预测并生成动态物理环境的AI系统。谷歌的Genie 3凭借一句话生成720p实时模拟世界的能力,被业界喻为”游戏引擎2.0″;李飞飞团队推出的RTFM模型,仅用单块H100 GPU即可实时渲染3D世界;Meta的代码世界模型、Runway的通用世界模型以及特斯拉的神经网络模拟器,均昭示着多模态世界模型已成为全球AI竞赛的战略制高点。

在这一背景下,北京智源研究院发布的悟界·Emu3.5模型,不仅是一次技术迭代,更代表着对多模态AI发展路径的原创性重构。该模型以340亿参数规模,基于累计时长达790年的互联网长视频数据训练而成,其核心突破在于实现了从”模块拼接”到”原生统一”的架构跃迁,并通过”预训练+多模态强化学习”的第三种Scaling范式,为AI理解物理世界提供了全新的方法论框架。

技术架构层面,Emu3.5的最大创新在于彻底摒弃了当前主流的理解与生成分离的混合架构(如LLM+CLIP及DiT架构),回归”第一性原理”,采用统一的自回归Transformer实现端到端的原生多模态处理。这种设计灵感源于人类认知发展规律——婴儿首先通过连续视觉经验建立对物理世界的理解,语言能力在此基础上逐步发展。Emu3.5将图像、文本、动作指令统一Token化,通过”Next-State Prediction”范式预测序列中的下一个状态,无论是文本描述、视觉词块还是机器人控制指令。这种架构实现了三大突破:首先,彻底打破理解与生成的壁垒,使图像生成基于对多模态上下文的深度理解;其次,完美复用成熟的LLM基础设施,使Scaling Law在多模态领域得以延续;第三,为强化学习在多模态长序列任务中的应用铺平道路。

数据处理与训练策略构成了Emu3.5的另一大创新支柱。其训练数据规模达到13万亿多模态Token,核心是经过精心处理的790年长视频数据,涵盖纪录片、教学视频、Vlog等多种类型。与短视频或静态图文不同,长视频天然蕴含时空连续性、因果逻辑和上下文一致性,为模型学习物理规律提供了优质素材。智源团队构建了自动化数据处理流水线,包括场景分割、语音转文字、关键帧提取、质量评估等环节,确保数据质量与多样性。

训练过程采用两阶段范式:第一阶段在超过10万亿Token上进行大规模预训练,使模型掌握基础的多模态对齐与生成能力;第二阶段实施大规模多模态强化学习,这是将LLM领域成功的RL技术首次系统化应用于复杂多模态任务的关键尝试。得益于统一的自回归架构,Emu3.5能够像LLM处理文本指令那样,通过RL优化对视觉序列的生成与控制,这在多模态RL历史上具有里程碑意义。训练曲线显示,模型在多个下游任务上的损失随算力投入稳定下降,验证了多模态Scaling范式的存在。

性能表现方面,Emu3.5在长文本渲染、复杂图像编辑、视觉故事生成等任务中展现出令人惊叹的能力。更值得关注的是,模型表现出对物理世界动态、因果、时空关系的深刻理解,每张图片推理速度较前代提升20倍,这得益于DiDA等推理加速技术的应用。技术报告显示,Emu3.5不仅能生成高一致性的多帧序列,还能理解并模拟简单的物理交互,预示着AI从数字世界向物理世界跨越的关键进展。
从产业视角看,Emu3.5的发布具有三重战略意义:首先,它为中国在全球AI基础创新竞争中提供了原创技术路径,证明了”不一定所有大模型技术路线都要完全跟随别人已经走过的路”;其次,它通过统一架构解决了多模态模型碎片化发展的困境,为产业落地提供了标准化方案;最后,它开辟的”预训练+多模态RL”Scaling范式,为后续模型演进提供了可复制的技术蓝图。随着项目主页和技术报告的全面公开,Emu3.5不仅是一个技术成果,更是对AI发展哲学的一次深刻叩问——真正的通用智能,或许正始于对物理世界的原生理解。
— 图片补充 —














关注“鲸栖”小程序,掌握最新AI资讯
本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/12461
