美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

近日,美团推出全新多模态统一大模型方案 STAR(STacked AutoRegressive Scheme for Unified Multimodal Learning),凭借创新的“堆叠自回归架构 + 任务递进训练”双核心设计,实现了“理解能力不打折、生成能力达顶尖”的双重突破。

在 GenEval(文本-图像对齐)、DPG-Bench(复杂场景生成)、ImgEdit(图像编辑)等基准测试中,STAR 实现了 SOTA 性能;其最简训练逻辑与紧凑模型设计,让统一多模态大模型真正走向工业级落地。

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

  • 论文标题:STAR: Stacked AutoRegressive Scheme for Unified Multimodal Learning
  • 论文链接:https://arxiv.org/pdf/2512.13752
  • 项目主页:https://star-mm-ai.github.io
  • 代码地址:https://github.com/MM-MVR/STAR
  • 关键词:统一多模态、堆叠自回归、任务渐进式训练

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

一、行业痛点:统一多模态大模型的“能力诅咒”

在通向 AGI 的进程中,将“视觉理解”与“图像生成”统一于单一参数空间被视为多模态大模型的圣杯,然而实践层面却长期受制于“能力诅咒”,具体表现为三重矛盾。

1. 优化目标互斥 —— 语义对齐与像素保真的零和博弈

理解任务的核心是“语义对齐与逻辑推理”,需要模型精准捕捉跨模态的语义关联;而生成任务的核心是“像素保真与创意表达”,需要模型兼顾细节还原与内容连贯性。两者的优化目标、特征空间显著不同,导致联合训练陷入零和博弈:强化生成能力,理解准确率会下降;深耕理解任务,生成图像的清晰度、语义一致性会打折。

2. 训练范式繁复 —— 从零训练与混合架构的双重瓶颈

现有两条技术路线均面临高昂训练成本:
* 端到端从零训练:需在亿级图文-生成配对数据上做多任务平衡,优化空间维度高,超参敏感性呈指数级放大,训练周期常以“月”为单位。
* 混合架构:通过扩散模型与自回归模型的组合实现功能覆盖,但需要设计复杂的特征转换桥、额外的适配器或复合损失,增加了整体调参难度。

3. 能力扩展退化 —— 灾难性遗忘与容量饱和

在预训练理解骨干上增量引入生成任务时,模型会出现典型的灾难性遗忘,原本擅长的图像问答、逻辑推理能力会显著下降。其根源在于参数容量饱和与表征干扰——生成任务的像素级扰动在特征空间形成噪声,改变了早期对齐的语义特征。

面对这些行业痛点,美团 MM 团队提出了一个直击核心的问题:能否在完全保留多模态理解能力的前提下,持续、高效地增强模型的生成与编辑能力?STAR 方案的诞生,给出了肯定且可扩展的解答。

二、核心创新:重构多模态学习的“能力成长法则”

STAR 的关键不是单一技术突破,而是构建了一套“能力叠加不冲突”的多模态学习体系,核心围绕「冻结基础 + 堆叠扩展 + 分阶训练」范式,通过三大核心设计实现「理解、生成、编辑」三大能力的统一,同时避免互相干扰。

1. 核心架构:堆叠同构 AR 模型

STAR 的核心架构创新是其“堆叠同构 AR 模块”的设计,彻底简化了多模态能力扩展的复杂度:
* 同构设计,零适配成本:新增的堆叠模块与基础 AR 模型采用完全相同的架构,参数初始化直接复用基础模型的顶层参数。这意味着新增模块无需重新学习基础特征,能快速适配现有模型的特征空间,避免了传统混合架构中“特征转换桥”的复杂设计。
* 单目标训练,极简优化:无需设计额外的损失函数,仅通过标准的“下一个 token 预测”目标即可完成生成与编辑能力的训练。这一目标与基础模型的训练目标完全一致,确保了训练过程的稳定性。
* 参数紧凑,落地友好:STAR-3B 仅在 Qwen2.5-VL-3B 基础上新增 1.2B 参数,STAR-7B 新增 3B 参数,却实现了生成能力的跨越式提升。紧凑的设计非常适合工业化部署,能有效降低推理成本。

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

2. 核心范式:任务递进式训练

STAR 打破了传统统一模型“混在一起训练”的模式,将多模态学习拆分为四阶段递进流程,每一步都冻结已有核心能力,扩展新技能:
1. 第一阶段(VQ 训练):先训练“图像分词”能力,为后续生成/编辑打下基础。
2. 第二阶段(文本生图预训练):在冻结的理解模型上,堆叠 AR 模块专门学习文生图任务,只更新新模块参数,不触碰原有理解能力。
3. 第三阶段(AR-扩散对齐训练):单独优化扩散解码器,让生成的图片更清晰,其他模块保持冻结。
4. 第四阶段(统一指令微调):联合训练堆叠 AR 和扩散解码器,同时掌握“生图+编辑”,用梯度停止机制避免新任务干扰旧能力。

通过任务递进式训练,STAR 实现了“理解能力不退化,生成/编辑能力逐步增强”。

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

3. 辅助增强机制:两大关键优化

1. 高容量图像量化器
传统 VQ 模型拆分图片粗、细节丢失多,STAR-VQ 做了两大升级:将码本规模从 16384 提升到 65536,向量维度从 8 维提升到 512 维,以捕捉更多图像细节;并通过新增码本映射层,解决大码本训练中常见的码本崩溃问题,保证所有 token 都能被有效利用。其核心作用是生成更精准的视觉 token,让后续生成/编辑任务能还原更细腻的图像细节。

2. 隐式推理机制
面对复杂提示,传统生成模型容易出现语义错位、细节遗漏的问题。STAR 的隐式推理机制,让模型学会“先推理,再生成”:当接收到复杂提示时,冻结的基础 AR 模型先进行推理,生成蕴含核心知识的隐式潜在 token;这些潜在 token 作为条件输入,引导堆叠模块进行图像生成。这一设计实现了“语义推理”与“像素生成”的解耦,大幅提升了复杂场景下的语义对齐度。

三、实验结果

STAR 的突破性表现,在理解、生成、编辑三大任务中均展现出顶尖实力。

1. 生成任务

在文本-图像生成的核心基准测试中,STAR 表现惊艳:
* GenEval(语义对齐权威基准):STAR-7B 以 0.91 的综合得分刷新 SOTA。在物体计数、颜色属性、空间关系、实体属性等 6 个子任务中,STAR 有 5 项排名第一。

(2)DPG-Bench(复杂场景生成评测):STAR-7B 以 87.44 的得分领先,在多物体组合、复杂场景描述等任务中表现突出,生成的图像不仅细节丰富,还能精准还原文本中的逻辑关系。

(3)WISEBench(世界知识推理评测):STAR-7B 以 0.66 的综合得分超越同类统一模型,证明其隐式推理机制能有效利用世界知识,提升复杂提示的生成质量。

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

2. 编辑任务

在图像编辑评测中,STAR 展现出强大的灵活适配能力,能精准响应“添加物体、替换背景、调整风格、删除元素”等各类编辑指令:

(1)ImgEdit(覆盖9类编辑任务):STAR-7B 以 4.34 的综合得分刷新 SOTA。在“物体提取”、“动作编辑”等子任务中,得分分别达到 4.19 和 4.60,领先于同类模型。

(2)MagicBrush(语义编辑评测):STAR-7B 的 CLIP-I 得分达 0.934(语义一致性),L1 误差低至 0.056(像素保真度)。这意味着 STAR 在完成编辑任务的同时,能最大程度保留原图的核心内容,避免“过度编辑”或“语义偏离”。

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

3. 理解任务

即便专注于增强生成与编辑能力,STAR 的理解能力依然保持顶尖水平。在 9 大权威理解评测中,STAR 的表现领先于同类多模态模型。

美团STAR大模型:突破多模态“理解-生成”零和困局,GenEval得分超0.91

四、总结与展望

STAR 的本质是“用最简洁的结构实现最全面的能力统一”:通过“任务递进”解决训练冲突,通过“堆叠同构 AR”降低扩展成本,通过“STAR-VQ + 隐式推理”提升能力上限,最终实现“理解、生成、编辑”三大任务的顶尖性能,为多模态模型的可持续扩展提供了全新思路。

STAR 为多模态模型的无干扰、可扩展发展提供了全新技术路径,后续可从以下方向进一步探索:

(1)能力边界扩展:在现有理解、生成、编辑基础上,纳入视频生成、3D 重建等更复杂的多模态任务,验证框架的泛化性;
(2)效率优化:当前模型仍需多阶段训练,未来可探索更高效的联合训练策略,或轻量化堆叠模块以降低部署成本;
(3)推理能力深化:进一步强化隐式推理机制,结合外部知识库或强化学习,提升模型在超复杂逻辑、跨领域知识场景下的生成准确性;
(4)多模态融合升级:拓展文本、图像之外的模态(如语音、触觉),构建更全面的通用多模态系统,推动人工通用智能(AGI)的发展。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/20200

(0)
上一篇 2026年2月4日 下午6:58
下一篇 2026年2月4日 下午8:12

相关推荐

  • 从文本生成到任务执行:AI能力跃迁的三年革命与人类角色的重新定义

    在人工智能发展的历史长河中,过去三年无疑构成了一个独特而关键的转折期。从2022年底ChatGPT引爆全球关注至今,AI技术不仅完成了从实验室到大众应用的跨越,更在功能形态上实现了从被动响应到主动执行的质变。这一进程不仅重塑了技术本身的能力边界,更在深层次上重构了人类与智能系统之间的协作关系。 回顾三年前的技术图景,GPT-3所展现的文本生成能力曾被视为革命…

    2025年11月30日
    21600
  • 小米MiMo-V2系列模型匿名上线引猜测,三款模型齐发推动AI从对话到任务执行

    上周,两个未署名的匿名模型悄然上架知名 API 聚合平台 OpenRouter,代号分别为“Hunter Alpha”和“Healer Alpha”。它们在没有任何官方宣传的情况下,调用量开始以异常的速度持续攀升。 其中,Hunter Alpha 更是多日登顶平台日榜,累计调用量突破 1T tokens,引发了社区的广泛猜测。最主流的观点认为其来自 Deep…

    2026年3月19日
    28900
  • 高通QuoKA:无需训练、硬件无关,88% KV缩减实现5倍推理加速,革新LLM预填充效率

    关键词:大语言模型、稀疏注意力、分块预填充、KV 选择、推理加速 无需训练、不依赖特定硬件,仅用 12% 的 KV 对就能实现接近全注意力的效果——这就是 Qualcomm AI Research 带来的全新稀疏注意力算法。 近年来,随着大型语言模型(LLM)的广泛应用,其推理效率逐渐成为制约落地的重要因素。尤其是在预填充阶段——即模型需要一次性处理整个输入…

    2026年2月11日
    14300
  • LabOS:AI协研科学家如何重塑实验室——从计算推理到物理操作的科学革命

    在传统科研范式面临效率瓶颈的当下,一个融合人工智能、扩展现实与机器人技术的智能实验室操作系统LabOS,正悄然开启人类与机器智能协同进化的科学发现新时代。这一由斯坦福大学丛乐教授、普林斯顿大学王梦迪教授团队与英伟达联合研发的系统,首次实现了从假说生成到实验验证的端到端闭环,标志着AI从纯数字世界的“理论家”向具备“眼-脑-手”协同能力的物理实验参与者的历史性…

    2025年11月20日
    28400
  • ChatGPT广告化:OpenAI商业化转型与用户隐私的博弈

    这一天终于还是来了。 周六凌晨,OpenAI 的一则公告引起轩然大波:他们计划在 ChatGPT 里加广告了。 对此,网友们感到很受伤。有人表示,现在大家用大模型的一个重要原因就是能够避免广告,更好地查询信息,现在 ChatGPT 又把广告加回来是几个意思? 也有人认为,加广告的这件事表明了 OpenAI 目前的营收压力很大。 华盛顿大学教授荣誉退休教授、知…

    2026年1月17日
    34700