百度ERNIE 5.0:万亿参数统一多模态大脑,原生自回归架构颠覆AI设计范式

克雷西 发自 凹非寺

模型发布近3个月后,百度ERNIE 5.0的技术报告终于公布。

百度ERNIE 5.0:万亿参数统一多模态大脑,原生自回归架构颠覆AI设计范式

其底座采用超级稀疏的Ultra-Sparse MoE架构,参数量高达万亿,但推理时真正激活的参数不到3%,是目前公开模型中首个实现这一规模的统一自回归模型。

在架构设计上,ERNIE 5.0拒绝“拼接”,真正实现了文本、图像、视频和音频四种模态的原生自回归统一,让所有模态从零开始就在同一个Transformer主干网络中协同训练。

ERNIE 5.0在多项基准测试中表现出色:在VBench视频语义评分中取得83.40分,在AISHELL-1语音识别任务中字错率低至0.31%,在MATH数学推理任务上得分73.89,展现出全面的多模态能力。

百度ERNIE 5.0:万亿参数统一多模态大脑,原生自回归架构颠覆AI设计范式

MoE路由调度不看模态

为了打破不同模态数据之间的隔阂,ERNIE 5.0在核心架构上采用了一种模态无关的专家路由机制。

这与以往“分而治之”的传统模型设计大不相同,它拆除了人为设立的模态壁垒,不再预先为数据贴上“视觉”或“语言”等标签。

ERNIE 5.0构建了一个共享专家池,让所有模态的数据都能在同一个巨大的参数网络中自由流动与交互。

百度ERNIE 5.0:万亿参数统一多模态大脑,原生自回归架构颠覆AI设计范式

在具体的调度执行上,模型完全基于统一的Token表征进行决策。无论输入数据的原始模态如何,都会被转化为统一格式并精准匹配至最合适的专家进行处理。

这种开放式的管理策略在训练中引发了涌现式专业化现象。在没有人工指令规定分工的情况下,专家们在海量数据的训练中自发形成了角色定位——有的自动专精于视觉处理,有的擅长文本逻辑,还有一部分进化成了负责跨模态对齐的“通才”。这种隐式协作不仅让多模态理解更加流畅,也自然拓展了模型的能力边界。

弹性预训练,一次产出多个模型

除了新的专家调度方式,ERNIE 5.0还首创了“一次性全能”的弹性训练范式。

传统上,为了适配不同算力的设备,往往需要从头训练大、中、小多个模型版本,消耗大量时间和算力资源。现在,ERNIE 5.0通过构建一个超大的超网络,只需进行一次预训练,就能通过权重共享的方式,直接从中抽取出一整套不同规格的子模型矩阵。

具体而言,它引入了弹性深度机制。在训练过程中,系统采用了类似层丢弃的策略,不再固定地遍历所有计算层,而是随机跳过一部分Transformer层,使得模型中的浅层网络也能独立承担有效的计算任务。

同时,它还支持弹性宽度与稀疏度的调节。这意味着可以动态调整专家池的总容量,以及灵活控制每次推理时具体激活的专家数量,从而在全量万亿参数和轻量化部署需求之间找到最佳平衡点。

百度ERNIE 5.0:万亿参数统一多模态大脑,原生自回归架构颠覆AI设计范式

这种训练方法最大的优势在于零样本抽取。提取出的子模型无需进行昂贵的重新微调,也无需复杂的模型压缩流程,便能直接继承全量模型的核心能力。

后训练优化

在对齐阶段,ERNIE 5.0实施了统一多模态强化学习策略,将逻辑推理、指令跟随与多模态生成任务纳入同一强化学习流水线中进行协同优化,实现了跨模态能力的深度对齐。

针对训练效率问题,模型引入了无偏重放缓存技术,通过严格的数据排序约束,有效解决了因任务长度不一导致的计算负载不均问题,从而大幅提升了整体训练吞吐量。

百度ERNIE 5.0:万亿参数统一多模态大脑,原生自回归架构颠覆AI设计范式

为了保障策略优化的稳定性,ERNIE 5.0应用了多粒度重要性采样剪裁与已掌握样本掩码机制。这两项技术专注于抑制训练初期容易出现的熵崩塌现象,确保模型在复杂的优化过程中保持策略更新的稳健性。

百度ERNIE 5.0:万亿参数统一多模态大脑,原生自回归架构颠覆AI设计范式

此外,面对奖励信号稀疏的困难任务,模型采用了自适应提示强化学习方法,在训练初期注入“思维骨架”作为引导信号,并随着训练深入逐步退火,最终实现从辅助引导到独立解决复杂问题的平滑过渡。

除了核心架构与训练范式,技术报告还详细阐述了各个模态的具体处理细节,包括文本的位置编码变体、图像与视频的时空分块策略,以及音频信号的离散化编码方案。

报告也披露了底层PaddlePaddle框架在千卡集群上的通信优化策略,以及针对超长上下文的高效注意力机制设计。

报告地址:
https://arxiv.org/abs/2602.04705


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/21025

(0)
上一篇 2天前
下一篇 2天前

相关推荐

  • OpenClaw创始人揭秘:逆向API打造AI军团,80%手机App将被吞噬!

    “80%的手机App会被吃掉!” 近日,热门项目 OpenClaw(原名 Clawdbot)的创始人 Peter Steinberger 在一次播客访谈中分享了新的见解。 他透露,自己已将 OpenClaw 的应用场景扩展到诸如查询外卖配送进度、调节智能床温度等日常事务。实现这种能力扩展的核心方法在于:逆向第三方服务的 API。 Peter 预测,未来 80…

    2026年2月3日
    26600
  • 英伟达开源NitroGen:通用游戏AI模型,跨千款游戏零样本操作

    这流畅的游戏动作,堪比技术流玩家的实况画面。尤其是《茶杯头》中的躲避、跳跃、踩灵魂一气呵成,令人惊叹。 最令人震撼的是,上述操作完全由AI完成。 与传统的单一游戏自动化脚本不同,这是一个完整的通用大模型,能够玩遍市面上几乎全部的游戏类型。 这就是来自英伟达的最新开源基础模型——NitroGen。 该模型的训练目标是玩1000款以上的游戏,无论是RPG、平台跳…

    2025年12月21日
    11800
  • 澳洲放羊大叔的AI编程革命:5行Bash脚本引爆硅谷,睡觉时AI自动完成5万美元项目

    最近,一个名为“Ralph”的AI编程技巧在全球技术社区迅速走红。其核心魔力在于:用户无需手动编写代码,只需设定目标,AI便能在后台自动完成整个开发流程,甚至在你睡觉时完成工作。令人惊讶的是,如此强大的工具,其核心代码仅由5行Bash脚本构成。 在Ralph迅速走红之后,Claude Code官方也推出了一套Ralph Wiggum插件。该插件通过“停止钩子…

    2026年1月23日
    8900
  • SceneMaker:突破3D生成瓶颈,从任意图像到完整3D场景的开放世界重建

    3D生成技术面临“半开放”窘境 当前3D生成技术深陷“半开放”窘境:模型能够打造精美的样板间,却对真实世界中千变万化的物体与场景表现不稳定。 针对这一问题,IDEA研究院张磊团队与香港科技大学谭平团队联合推出了SceneMaker框架。该框架以万物检测模型DINO-X与万物3D生成模型Triverse为基础,实现了从任意开放世界图像(室内、室外、合成图等)到…

    2026年1月25日
    6500
  • TOON vs JSON:为LLM优化的结构化数据格式革命

    在提示词日益冗长、AI模型愈发强大的当下,一个核心问题反复浮现:如何同时降低使用成本和处理时间? 在以编程方式使用大语言模型时,结构化输出已成为标准实践。开发者可以要求模型按特定格式输出,例如JSON。通过定义一个模型架构并阐明各字段含义,AI会尽力理解上下文,并在其能力范围内填充输出。 这使得处理AI的响应变得前所未有的便捷。然而,输入环节呢? 即便我们能…

    2026年1月31日
    6200