悟界・Emu3.5:原生多模态世界大模型开启AI第三条Scaling范式

在人工智能技术快速演进的今天,多模态大模型正成为推动AI向通用人工智能迈进的关键力量。当业界仍在围绕自回归与扩散模型的技术路线展开激烈讨论时,北京智源人工智能研究院(BAAI)最新发布的悟界・Emu3.5模型,以其创新的“多模态世界大模型”定位,为这场技术辩论提供了全新的视角和答案。

Emu3.5不仅仅是一次常规的模型迭代,它被定义为“多模态世界大模型”(Multimodal World Foundation Model),这一概念标志着AI发展进入了一个全新的阶段。通过在超过10万亿多模态Token(主要源自互联网视频,总时长约790年)上进行端到端预训练,Emu3.5成功学习并内化了现实物理世界的动态规律。这种原生的世界建模能力,使其在根本上区别于现有的生成模型,并自然外化为一系列高级功能:不仅能生成图文并茂的故事,更展现出在长时程视觉指导、复杂图像编辑、世界探索和具身操作等任务上的强大潜力。

更值得关注的是,Emu3.5首次揭示了“多模态Scaling范式”的存在。这是继语言预训练、推理和后训练之后,人工智能发展的第三条Scaling范式。智源研究院在悟道1.0发布会上率先提出“大模型”概念,如今通过Emu3.5的发布,他们再次引领行业方向,将“世界大模型”(World Foundation Model)确立为AI研究的新探索方向。

在技术架构层面,Emu3.5继承了Emu3的极简设计理念,基于一个34B的稠密Transformer模型。其核心创新在于将模型目标统一为“下一状态预测”(Next-State Prediction)。这种设计赋予了Emu3.5独特的“原生多模态”特性——不再依赖传统的“多模块”模式(即以LLM为基础,将其他模态转换为文本再处理),而是直接基于下一个token预测,实现了文本、图像、视频三种模态数据的理解和生成大一统。

这种原生特性使Emu3.5具备生成交错视觉-语言输出的能力。当用户给出指令时,模型可以生成一段文字,紧接着一幅图像,然后是另一段解释性文字和下一幅图像,形成连贯的多模态叙事。这种能力使其天然胜任两类极具挑战性的新任务:

1. 视觉叙事(Visual Narrative):Emu3.5能生成一系列图文并茂的卡片,从起点处牛顿与索尼克在森林相遇、提出关于速度与引力的挑战开始,到两个角色的交流和思考,再到最后在月光下共同仰望星空,整个过程逻辑连贯,画面风格统一。

悟界・Emu3.5:原生多模态世界大模型开启AI第三条Scaling范式

2. 视觉指导(Visual Guidance):模型可以生成分步的、带有视觉示例的教程。例如,当被问及“如何画图中的猫?”,Emu3.5会生成几个步骤,每个步骤都配有一张清晰的图片,直观展示从轮廓到最终完成猫图片的全过程。

这种能力标志着多模态模型从“看图说话”或“按需作画”的单一任务执行者,向着能够进行连续、多步、跨模态创造的“世界学习器”迈出了关键一步。

Emu3.5之所以能具备如此强大的原生多模态能力,其背后是一套极其庞大且精密的训练流程。与以往模型主要依赖静态的“图像-文本对”不同,Emu3.5的训练数据主体是包含超过10万亿Tokens的视觉-语言交错数据,主要来源于互联网视频及其对应的语音转录文本。为什么视频数据如此重要?因为静态图文对只能教会模型“这是什么”,而连续的视频帧和同步的解说,则能教会模型现实世界的物理动态、时空连续性和因果等规律。

整个训练流程分为四个核心阶段:

第一阶段是大规模预训练。Emu3.5在超过10万亿Tokens的数据上,采用统一的“下一状态预测”目标进行端到端训练。这一阶段分为两步,第一步在10万亿Tokens上进行大规模基础学习,第二步则在3万亿更高质量、更高分辨率和更丰富标注的数据上进行能力增强。值得注意的是,模型在训练过程中,验证集上多个分布外任务的损失持续下降,这表明模型涌现出了强大的泛化能力,而不仅仅是记忆训练数据。

悟界・Emu3.5:原生多模态世界大模型开启AI第三条Scaling范式

曲线表明Emu3.5实现了平滑且稳定的优化过程,并在多组验证集上保持了一致的泛化能力。

第二阶段是监督微调。在预训练之后,模型在一个包含1500亿样本的高质量数据集上进行微调。这些数据覆盖了从通用图文生成、视觉问答,到前文提到的视觉叙事、视觉指导、世界探索和具身操作等多种复杂任务。SFT阶段的目标是建立一个统一的多模态交互接口,让模型学会如何“听懂”并完成各种具体指令,并促进不同任务之间的知识迁移。

第三阶段是大规模多模态强化学习。为了进一步提升多模态推理和生成质量,Emu3.5首次在多模态领域进行大规模强化学习。团队构建了一个复杂的多维度奖励系统,能够同时评估生成内容的美学质量、图文对齐度、叙事连贯性、文本渲染准确度等多个指标。通过在统一的奖励空间中进行优化,模型学会在多个目标之间取得平衡,避免了“奖励欺骗”现象,实现了跨任务的持续改进。

第四阶段是高效自回归推理加速。为了解决自回归模型在生成速度方面的挑战,Emu3.5团队提出了“离散扩散自适应”(Discrete Diffusion Adaptation,DiDA)方法。这项技术将每张图像的推理速度提升了近20倍,且几乎没有性能损失。这使得Emu3.5成为首个在推理速度和生成质量上,能与顶级闭源扩散模型相媲美的自回归模型。

在性能表现方面,Emu3.5在多个基准测试中展现出卓越实力。在图像编辑任务上达到了与谷歌Gemini-2.5-Flash-Image相当的性能,并在文本渲染和一系列交错内容生成任务上显著超越对手。这种全面的性能优势,验证了“多模态世界大模型”这一技术路线的可行性和先进性。

智源研究院已宣布后续将开源Emu3.5,以支持社区的进一步研究。这一决定不仅体现了开源精神,也为全球AI研究者提供了探索多模态世界模型的重要工具。悟界・Emu3.5的发布,不仅是一次技术突破,更是AI发展史上的重要里程碑。它标志着人工智能从单纯的内容生成,向对世界动态的理解和预测迈进,为构建真正理解物理世界的通用人工智能奠定了坚实基础。

— 图片补充 —

悟界・Emu3.5:原生多模态世界大模型开启AI第三条Scaling范式

悟界・Emu3.5:原生多模态世界大模型开启AI第三条Scaling范式

悟界・Emu3.5:原生多模态世界大模型开启AI第三条Scaling范式

悟界・Emu3.5:原生多模态世界大模型开启AI第三条Scaling范式

悟界・Emu3.5:原生多模态世界大模型开启AI第三条Scaling范式

悟界・Emu3.5:原生多模态世界大模型开启AI第三条Scaling范式


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/8728

(0)
上一篇 2025年10月30日 下午4:24
下一篇 2025年10月30日 下午4:29

相关推荐

  • 掩码扩散语言模型:超越自回归范式,解锁推理与采样的新潜能

    在自然语言处理领域,自回归(AR)语言模型长期占据主导地位,其从左到右顺序生成token的方式已成为标准范式。然而,这种单向生成机制在推理效率、并行化能力和任务适应性方面存在固有局限。近年来,掩码扩散语言模型(MDLM)作为一种新兴架构,通过随机遮蔽序列位置并学习填充被掩码区域,为语言建模提供了全新的视角。本文将从技术原理、性能表现、创新应用三个维度,深入分…

    2025年10月30日
    8300
  • AI在线强化学习实现“实践式学习”,斯坦福团队助力7B小模型性能大幅提升,表现超越GPT-4o

    斯坦福团队推出AgentFlow框架,通过在线强化学习让仅7B参数的小模型在流式协作中“边做边学”。该方法使模型在搜索、数学等10项任务中性能显著提升,部分表现甚至超越了GPT-4o等超大模型,证明了优化系统设计可突破模型规模限制。

    2025年10月24日
    34300
  • OpenAI股权风波:奥特曼秘密持股与马斯克诉讼案新进展深度解析

    硅谷最贵官司新进展:奥特曼秘密持股与OpenAI创始日记曝光 硅谷最贵的一场官司,有了新进展。 马斯克诉OpenAI案,法庭一口气解封超过100份证词文件,爆出大量内幕。 奥特曼隐瞒他通过YC基金间接持有OpenAI的股份,并同时担任非营利组织的独立董事和CEO。 OpenAI联合创始人兼总裁格雷格·布罗克曼早在2017年的私人日记中,就承认想将OpenAI…

    2026年1月17日
    10300
  • ReSeek框架:赋予搜索智能体动态自我修正能力,突破推理链中的连锁错误瓶颈

    在人工智能技术快速发展的今天,搜索智能体(Search Agent)作为连接大语言模型与实时信息世界的关键桥梁,正面临两大核心挑战:知识的实时性与推理的复杂性。传统的检索增强生成(RAG)技术虽然能够引入外部知识,但其本质上仍是被动的信息检索过程。而搜索智能体的革命性突破在于,它能够通过与实时搜索引擎进行多轮交互,主动分解并执行复杂的多步任务。这种能力在人物…

    2025年11月18日
    7800
  • 智源研究院:以“安卓”模式破局具身智能数据孤岛,引领行业生态共建新范式

    在2025年智源具身智能Open Day活动中,一场被业界称为“具身武林大会”的盛会,罕见地聚集了银河通用、智元、星海图、自变量、原力灵机、加速进化、北京人形、星源智、优必选、因时、软通天擎等机器人领域的主要厂商代表。这一现象背后,折射出当前具身智能产业面临的核心挑战与转型契机。 智源研究院院长王仲远在会上提出的“数据贡献与模型效用正向关联”机制,直指行业长…

    2025年11月21日
    8200

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注