美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

近日,美团推出全新多模态统一大模型方案 STAR(STacked AutoRegressive Scheme for Unified Multimodal Learning),凭借创新的“堆叠自回归架构 + 任务递进训练”双核心设计,实现了“理解能力不打折、生成能力达顶尖”的双重突破。

在 GenEval(文本-图像对齐)、DPG-Bench(复杂场景生成)、ImgEdit(图像编辑)等基准测试中,STAR 实现了 SOTA 性能;其最简训练逻辑与紧凑模型设计,让统一多模态大模型真正走向工业级落地。

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

  • 论文标题:STAR: Stacked AutoRegressive Scheme for Unified Multimodal Learning
  • 论文链接:https://arxiv.org/pdf/2512.13752
  • 项目主页:https://star-mm-ai.github.io
  • 代码地址:https://github.com/MM-MVR/STAR
  • 关键词:统一多模态、堆叠自回归、任务渐进式训练

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

一、行业痛点:统一多模态大模型的“能力诅咒”

在通向 AGI 的进程中,将“视觉理解”与“图像生成”统一于单一参数空间被视为多模态大模型的圣杯,然而实践层面却长期受制于“能力诅咒”,具体表现为三重矛盾。

1. 优化目标互斥 —— 语义对齐与像素保真的零和博弈

理解任务的核心是“语义对齐与逻辑推理”,需要模型精准捕捉跨模态的语义关联;而生成任务的核心是“像素保真与创意表达”,需要模型兼顾细节还原与内容连贯性。两者的优化目标、特征空间显著不同,导致联合训练陷入零和博弈:强化生成能力,理解准确率会下降;深耕理解任务,生成图像的清晰度、语义一致性会打折。

2. 训练范式繁复 —— 从零训练与混合架构的双重瓶颈

现有两条技术路线均面临高昂训练成本:
* 端到端从零训练:需在亿级图文-生成配对数据上做多任务平衡,优化空间维度高,超参敏感性呈指数级放大,训练周期常以“月”为单位。
* 混合架构:通过扩散模型与自回归模型的组合实现功能覆盖,但需要设计复杂的特征转换桥、额外的适配器或复合损失,增加了整体调参难度。

3. 能力扩展退化 —— 灾难性遗忘与容量饱和

在预训练理解骨干上增量引入生成任务时,模型会出现典型的灾难性遗忘,原本擅长的图像问答、逻辑推理能力会显著下降。其根源在于参数容量饱和与表征干扰——生成任务的像素级扰动在特征空间形成噪声,改变了早期对齐的语义特征。

面对这些行业痛点,美团 MM 团队提出了一个直击核心的问题:能否在完全保留多模态理解能力的前提下,持续、高效地增强模型的生成与编辑能力?STAR 方案的诞生,给出了肯定且可扩展的解答。

二、核心创新:重构多模态学习的“能力成长法则”

STAR 的关键不是单一技术突破,而是构建了一套“能力叠加不冲突”的多模态学习体系,核心围绕「冻结基础 + 堆叠扩展 + 分阶训练」范式,通过三大核心设计实现「理解、生成、编辑」三大能力的统一,同时避免互相干扰。

1. 核心架构:堆叠同构 AR 模型

STAR 的核心架构创新是其“堆叠同构 AR 模块”的设计,彻底简化了多模态能力扩展的复杂度:
* 同构设计,零适配成本:新增的堆叠模块与基础 AR 模型采用完全相同的架构,参数初始化直接复用基础模型的顶层参数。这意味着新增模块无需重新学习基础特征,能快速适配现有模型的特征空间,避免了传统混合架构中“特征转换桥”的复杂设计。
* 单目标训练,极简优化:无需设计额外的损失函数,仅通过标准的“下一个 token 预测”目标即可完成生成与编辑能力的训练。这一目标与基础模型的训练目标完全一致,确保了训练过程的稳定性。
* 参数紧凑,落地友好:STAR-3B 仅在 Qwen2.5-VL-3B 基础上新增 1.2B 参数,STAR-7B 新增 3B 参数,却实现了生成能力的跨越式提升。紧凑的设计非常适合工业化部署,能有效降低推理成本。

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

2. 核心范式:任务递进式训练

STAR 打破了传统统一模型“混在一起训练”的模式,将多模态学习拆分为四阶段递进流程,每一步都冻结已有核心能力,扩展新技能:
1. 第一阶段(VQ 训练):先训练“图像分词”能力,为后续生成/编辑打下基础。
2. 第二阶段(文本生图预训练):在冻结的理解模型上,堆叠 AR 模块专门学习文生图任务,只更新新模块参数,不触碰原有理解能力。
3. 第三阶段(AR-扩散对齐训练):单独优化扩散解码器,让生成的图片更清晰,其他模块保持冻结。
4. 第四阶段(统一指令微调):联合训练堆叠 AR 和扩散解码器,同时掌握“生图+编辑”,用梯度停止机制避免新任务干扰旧能力。

通过任务递进式训练,STAR 实现了“理解能力不退化,生成/编辑能力逐步增强”。

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

3. 辅助增强机制:两大关键优化

1. 高容量图像量化器
传统 VQ 模型拆分图片粗、细节丢失多,STAR-VQ 做了两大升级:将码本规模从 16384 提升到 65536,向量维度从 8 维提升到 512 维,以捕捉更多图像细节;并通过新增码本映射层,解决大码本训练中常见的码本崩溃问题,保证所有 token 都能被有效利用。其核心作用是生成更精准的视觉 token,让后续生成/编辑任务能还原更细腻的图像细节。

2. 隐式推理机制
面对复杂提示,传统生成模型容易出现语义错位、细节遗漏的问题。STAR 的隐式推理机制,让模型学会“先推理,再生成”:当接收到复杂提示时,冻结的基础 AR 模型先进行推理,生成蕴含核心知识的隐式潜在 token;这些潜在 token 作为条件输入,引导堆叠模块进行图像生成。这一设计实现了“语义推理”与“像素生成”的解耦,大幅提升了复杂场景下的语义对齐度。

三、实验结果

STAR 的突破性表现,在理解、生成、编辑三大任务中均展现出顶尖实力。

1. 生成任务

在文本-图像生成的核心基准测试中,STAR 表现惊艳:
* GenEval(语义对齐权威基准):STAR-7B 以 0.91 的综合得分刷新 SOTA。在物体计数、颜色属性、空间关系、实体属性等 6 个子任务中,STAR 有 5 项排名第一。

(2)DPG-Bench(复杂场景生成评测):STAR-7B 以 87.44 的得分领先,在多物体组合、复杂场景描述等任务中表现突出,生成的图像不仅细节丰富,还能精准还原文本中的逻辑关系。

(3)WISEBench(世界知识推理评测):STAR-7B 以 0.66 的综合得分超越同类统一模型,证明其隐式推理机制能有效利用世界知识,提升复杂提示的生成质量。

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

2. 编辑任务

在图像编辑评测中,STAR 展现出强大的灵活适配能力,能精准响应“添加物体、替换背景、调整风格、删除元素”等各类编辑指令:

(1)ImgEdit(覆盖9类编辑任务):STAR-7B 以 4.34 的综合得分刷新 SOTA。在“物体提取”、“动作编辑”等子任务中,得分分别达到 4.19 和 4.60,领先于同类模型。

(2)MagicBrush(语义编辑评测):STAR-7B 的 CLIP-I 得分达 0.934(语义一致性),L1 误差低至 0.056(像素保真度)。这意味着 STAR 在完成编辑任务的同时,能最大程度保留原图的核心内容,避免“过度编辑”或“语义偏离”。

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

3. 理解任务

即便专注于增强生成与编辑能力,STAR 的理解能力依然保持顶尖水平。在 9 大权威理解评测中,STAR 的表现领先于同类多模态模型。

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

四、总结与展望

STAR 的本质是“用最简洁的结构实现最全面的能力统一”:通过“任务递进”解决训练冲突,通过“堆叠同构 AR”降低扩展成本,通过“STAR-VQ + 隐式推理”提升能力上限,最终实现“理解、生成、编辑”三大任务的顶尖性能,为多模态模型的可持续扩展提供了全新思路。

STAR 为多模态模型的无干扰、可扩展发展提供了全新技术路径,后续可从以下方向进一步探索:

(1)能力边界扩展:在现有理解、生成、编辑基础上,纳入视频生成、3D 重建等更复杂的多模态任务,验证框架的泛化性;
(2)效率优化:当前模型仍需多阶段训练,未来可探索更高效的联合训练策略,或轻量化堆叠模块以降低部署成本;
(3)推理能力深化:进一步强化隐式推理机制,结合外部知识库或强化学习,提升模型在超复杂逻辑、跨领域知识场景下的生成准确性;
(4)多模态融合升级:拓展文本、图像之外的模态(如语音、触觉),构建更全面的通用多模态系统,推动人工通用智能(AGI)的发展。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/20200

(0)
上一篇 2026年2月4日 下午6:58
下一篇 2026年2月4日 下午8:12

相关推荐

  • Gemini 3深度评测:硬核编程的SOTA王者,为何在Web开发上“翻车”?

    📌 简短结论:强得离谱,但并非全能 综合各类基准测试与我的实际体验,可以得出结论:Gemini 3 是目前我测试过最接近“真实智能”的模型。特别是在硬核编程任务上,其表现超越了包括 GPT-5 Pro 和 Gemini 2.5 Deep Think 在内的所有竞品。 ✅ 当前处于 SOTA(最优)水平的领域: 调试复杂的编译器 Bug 无逻辑错误地重构大型代…

    2025年11月22日
    10400
  • Attention机制暗藏偏置陷阱:上海大学团队提出去偏修正公式,提升多模态大模型剪枝效率

    Attention机制暗藏偏置陷阱:上海大学团队提出去偏修正公式,提升多模态大模型剪枝效率 近年来,视觉-语言模型在多模态理解任务中取得了显著进展。为了降低推理成本,模型通常通过语言到视觉的注意力来衡量视觉标记与文本之间的相关性,并据此进行视觉标记剪枝。 然而,一个长期被忽视的问题是:注意力本身是否真的能够作为“语义重要性”的可靠指标? 上海大学曾丹团队在最…

    2026年1月27日
    7000
  • DeepSeek OCR:颠覆传统,用视觉压缩破解AI扩展的“十亿美元级”文档处理难题

    Part I: 文本的“隐形重量” 我们通常认为文本是“轻”的:易于存储、传输和计算。但在大语言模型时代,文本变得非常“重”。 处理一张发票的PDF扫描件,就可能消耗1,000至5,000个tokens。将这个数量级乘以企业日志、法律合同、监管文件和数字化档案,总token量将变得极其庞大——其中大部分是冗余、昂贵且处理缓慢的。虽然OpenAI的GPT-4-…

    2025年10月31日
    10200
  • DeepSeek发布Engram条件记忆架构:MoE模型性能提升新路径,实习生主导突破性研究

    这一记忆架构有望成为新的Scaling路径。 智东西1月13日报道,昨晚,DeepSeek再次开源,并发布一篇新论文。此次,他们提出了一种全新的“条件记忆”机制——Engram,旨在让MoE模型在保持巨量参数的同时,更高效地处理语言信息。DeepSeek创始人兼CEO梁文锋、北京大学王选计算机研究所的赵东岩和张辉帅教授均在论文中署名。 Engram架构的核心…

    2026年1月13日
    13300
  • LangChain系统性能深度对比:Python与Go在AI应用中的实战评测

    LangChain 系统性能深度对比:Python 与 Go 在 AI 应用中的实战评测 Lovable,这家高速增长的 AI 公司,今年将其后端从 Python 迁移到 Go,将服务器使用和部署时间从约 15 分钟降至约 3 分钟。Go 正日益被视为现代 AI 系统的理想语言,从高吞吐的 RAG 管道到多工具的 Agent。 但若要真正评估 Go 在生产级…

    2025年12月31日
    10400