悟界・Emu3.5:原生多模态世界大模型开启AI第三条Scaling范式

在人工智能技术快速演进的今天,多模态大模型正成为推动AI向通用人工智能迈进的关键力量。当业界仍在围绕自回归与扩散模型的技术路线展开激烈讨论时,北京智源人工智能研究院(BAAI)最新发布的悟界・Emu3.5模型,以其创新的“多模态世界大模型”定位,为这场技术辩论提供了全新的视角和答案。

Emu3.5不仅仅是一次常规的模型迭代,它被定义为“多模态世界大模型”(Multimodal World Foundation Model),这一概念标志着AI发展进入了一个全新的阶段。通过在超过10万亿多模态Token(主要源自互联网视频,总时长约790年)上进行端到端预训练,Emu3.5成功学习并内化了现实物理世界的动态规律。这种原生的世界建模能力,使其在根本上区别于现有的生成模型,并自然外化为一系列高级功能:不仅能生成图文并茂的故事,更展现出在长时程视觉指导、复杂图像编辑、世界探索和具身操作等任务上的强大潜力。

更值得关注的是,Emu3.5首次揭示了“多模态Scaling范式”的存在。这是继语言预训练、推理和后训练之后,人工智能发展的第三条Scaling范式。智源研究院在悟道1.0发布会上率先提出“大模型”概念,如今通过Emu3.5的发布,他们再次引领行业方向,将“世界大模型”(World Foundation Model)确立为AI研究的新探索方向。

在技术架构层面,Emu3.5继承了Emu3的极简设计理念,基于一个34B的稠密Transformer模型。其核心创新在于将模型目标统一为“下一状态预测”(Next-State Prediction)。这种设计赋予了Emu3.5独特的“原生多模态”特性——不再依赖传统的“多模块”模式(即以LLM为基础,将其他模态转换为文本再处理),而是直接基于下一个token预测,实现了文本、图像、视频三种模态数据的理解和生成大一统。

这种原生特性使Emu3.5具备生成交错视觉-语言输出的能力。当用户给出指令时,模型可以生成一段文字,紧接着一幅图像,然后是另一段解释性文字和下一幅图像,形成连贯的多模态叙事。这种能力使其天然胜任两类极具挑战性的新任务:

1. 视觉叙事(Visual Narrative):Emu3.5能生成一系列图文并茂的卡片,从起点处牛顿与索尼克在森林相遇、提出关于速度与引力的挑战开始,到两个角色的交流和思考,再到最后在月光下共同仰望星空,整个过程逻辑连贯,画面风格统一。

悟界・Emu3.5:原生多模态世界大模型开启AI第三条Scaling范式

2. 视觉指导(Visual Guidance):模型可以生成分步的、带有视觉示例的教程。例如,当被问及“如何画图中的猫?”,Emu3.5会生成几个步骤,每个步骤都配有一张清晰的图片,直观展示从轮廓到最终完成猫图片的全过程。

这种能力标志着多模态模型从“看图说话”或“按需作画”的单一任务执行者,向着能够进行连续、多步、跨模态创造的“世界学习器”迈出了关键一步。

Emu3.5之所以能具备如此强大的原生多模态能力,其背后是一套极其庞大且精密的训练流程。与以往模型主要依赖静态的“图像-文本对”不同,Emu3.5的训练数据主体是包含超过10万亿Tokens的视觉-语言交错数据,主要来源于互联网视频及其对应的语音转录文本。为什么视频数据如此重要?因为静态图文对只能教会模型“这是什么”,而连续的视频帧和同步的解说,则能教会模型现实世界的物理动态、时空连续性和因果等规律。

整个训练流程分为四个核心阶段:

第一阶段是大规模预训练。Emu3.5在超过10万亿Tokens的数据上,采用统一的“下一状态预测”目标进行端到端训练。这一阶段分为两步,第一步在10万亿Tokens上进行大规模基础学习,第二步则在3万亿更高质量、更高分辨率和更丰富标注的数据上进行能力增强。值得注意的是,模型在训练过程中,验证集上多个分布外任务的损失持续下降,这表明模型涌现出了强大的泛化能力,而不仅仅是记忆训练数据。

悟界・Emu3.5:原生多模态世界大模型开启AI第三条Scaling范式

曲线表明Emu3.5实现了平滑且稳定的优化过程,并在多组验证集上保持了一致的泛化能力。

第二阶段是监督微调。在预训练之后,模型在一个包含1500亿样本的高质量数据集上进行微调。这些数据覆盖了从通用图文生成、视觉问答,到前文提到的视觉叙事、视觉指导、世界探索和具身操作等多种复杂任务。SFT阶段的目标是建立一个统一的多模态交互接口,让模型学会如何“听懂”并完成各种具体指令,并促进不同任务之间的知识迁移。

第三阶段是大规模多模态强化学习。为了进一步提升多模态推理和生成质量,Emu3.5首次在多模态领域进行大规模强化学习。团队构建了一个复杂的多维度奖励系统,能够同时评估生成内容的美学质量、图文对齐度、叙事连贯性、文本渲染准确度等多个指标。通过在统一的奖励空间中进行优化,模型学会在多个目标之间取得平衡,避免了“奖励欺骗”现象,实现了跨任务的持续改进。

第四阶段是高效自回归推理加速。为了解决自回归模型在生成速度方面的挑战,Emu3.5团队提出了“离散扩散自适应”(Discrete Diffusion Adaptation,DiDA)方法。这项技术将每张图像的推理速度提升了近20倍,且几乎没有性能损失。这使得Emu3.5成为首个在推理速度和生成质量上,能与顶级闭源扩散模型相媲美的自回归模型。

在性能表现方面,Emu3.5在多个基准测试中展现出卓越实力。在图像编辑任务上达到了与谷歌Gemini-2.5-Flash-Image相当的性能,并在文本渲染和一系列交错内容生成任务上显著超越对手。这种全面的性能优势,验证了“多模态世界大模型”这一技术路线的可行性和先进性。

智源研究院已宣布后续将开源Emu3.5,以支持社区的进一步研究。这一决定不仅体现了开源精神,也为全球AI研究者提供了探索多模态世界模型的重要工具。悟界・Emu3.5的发布,不仅是一次技术突破,更是AI发展史上的重要里程碑。它标志着人工智能从单纯的内容生成,向对世界动态的理解和预测迈进,为构建真正理解物理世界的通用人工智能奠定了坚实基础。

— 图片补充 —

悟界・Emu3.5:原生多模态世界大模型开启AI第三条Scaling范式

悟界・Emu3.5:原生多模态世界大模型开启AI第三条Scaling范式

悟界・Emu3.5:原生多模态世界大模型开启AI第三条Scaling范式

悟界・Emu3.5:原生多模态世界大模型开启AI第三条Scaling范式

悟界・Emu3.5:原生多模态世界大模型开启AI第三条Scaling范式

悟界・Emu3.5:原生多模态世界大模型开启AI第三条Scaling范式


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/8728

(0)
上一篇 2025年10月30日 下午4:24
下一篇 2025年10月30日 下午4:29

相关推荐

  • Cartesia完成1亿美元B轮融资,SSM架构语音模型Sonic-3实现类人情感表达

    在人工智能语音合成领域,一场基于架构创新的技术竞赛正在悄然展开。近日,语音AI公司Cartesia宣布完成1亿美元B轮融资,英伟达作为投资方赫然在列。与此同时,该公司发布了新一代语音模型Sonic-3,凭借状态空间模型(SSM)架构实现了前所未有的类人情感表达能力。这一系列动作不仅标志着语音AI技术路线的多元化发展,更预示着实时交互语音应用即将迎来新的突破。…

    2025年11月3日
    39500
  • 视觉化文本处理:Glyph框架如何通过图像渲染突破长文本计算瓶颈

    在人工智能快速发展的今天,处理长文本输入已成为大语言模型面临的核心挑战之一。传统的token扩展方法虽然在一定程度上缓解了上下文长度限制,但随之而来的算力成本呈指数级增长,使得百万级token的处理在经济和技术上都变得不可持续。当业界普遍在位置编码扩展和注意力机制优化上投入大量资源时,智谱AI推出的Glyph框架却开辟了一条全新的技术路径:将文本转化为图像,…

    2025年10月29日
    44700
  • 分割一切、3D重建一切还不够,Meta开源SAM Audio分割一切声音

    声音的“外科手术刀”:SAM Audio如何用多模态提示重塑音频编辑的未来 当Meta在深夜悄然发布SAM Audio时,音频处理领域迎来了一场静默的革命。这不仅仅是一个新的技术模型,而是一个能够理解人类意图、响应自然交互的智能音频编辑系统。在AI技术不断突破边界的今天,SAM Audio的出现标志着音频处理从工具化向智能化的根本性转变。 想象一下这样的场景…

    2025年12月19日
    39600
  • Anthropic ARR飙至440亿美元,12个月暴增350亿,估值剑指万亿美元

    Anthropic 将 AI 公司的增长轨迹推向了新的高度。 Semi Analysis 的最新报告指出,Anthropic 的 ARR 已突破 440 亿美元。这里的 ARR 代表年化运行收入(Annualized Run-rate Revenue),即基于当前收入水平推算的年度收入估算值,并非已确认的全年实际收入。 即便如此,这一数字依然令人震惊。 20…

    2026年5月4日
    53800
  • 深度解析Depth Anything 3:单Transformer统一3D视觉任务,字节跳动如何重塑几何感知新范式

    在计算机视觉领域,3D重建与几何感知一直是核心挑战之一。传统方法往往需要针对不同任务设计专用模型,如单目深度估计、多视角重建、相机姿态估计等,这不仅增加了开发复杂度,也限制了模型的泛化能力与数据利用效率。近日,字节跳动Seed团队的Depth Anything 3(DA3)研究成果,以单一Transformer架构统一了多种3D视觉任务,在视觉几何基准上取得…

    2025年11月18日
    37900

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注