强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

在大语言模型和文生图领域,强化学习(RL)已成为提升模型思维链与生成质量的关键方法。但当我们将目光转向更为复杂的文本到3D生成时,这套方法还会管用吗?

近期,一项由西北工业大学、北京大学、香港中文大学、上海人工智能实验室、香港科技大学合作开展的研究系统性探索了这一重要问题。

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

论文链接: https://arxiv.org/pdf/2512.10949
代码链接: https://github.com/Ivan-Tang-3D/3DGen-R1

强化学习是否能够用于Text-to-3D生成,以加强3D自回归模型的逐步推理与生成过程?

在LLM推理和2D文生图中,RL已经证明可以显著提升CoT推理能力和生成质量。但3D物体更长、更稠密、更具几何约束。

因此相关方向研究常面临这几个问题:
1. 奖励如何同时刻画语义对齐、几何一致性和视觉质量?
2. 现有RL算法是否适合自回归式3D生成?
3. 缺乏专门考察“3D推理能力”的Benchmark,难以系统评估RL的真实贡献。

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

Progressive Investigation:四个层次拆解Text-to-3D+RL

1. Reward设计层

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

经过系统对比人类偏好、文本对齐、多视图一致性、3D美学等多种奖励组合。研究团队发现:

1)对齐人类偏好信号是提升整体3D质量的关键。其他奖励维度单独使用时带来的提升有限,但在叠加到偏好奖励之上时能够持续带来增益;

2)对于同一奖励维度而言,专门化的奖励模型通常比大型多模态模型(LMMs)表现出更强的鲁棒性。然而,通用多模态模型(Qwen-VL)在3D相关属性上出乎意料地鲁棒,为“低成本奖励”提供可能。

2. RL算法层

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

评估GRPO、DAPO、GSPO等在3D自回归生成中的表现。主要Insight:

1)相比序列级操作,3D自回归生成中的强化学习更偏好token级策略。
如表2所示,在相同奖励模型配置下,token级平均策略带来的提升显著大于序列级的重要性采样与剪切方法(GSPO)。

2)简单的技巧即可稳定训练,尤其是Dynamic Sampling,只要策略更新受控。完全移除KL惩罚会导致性能下降;而像Decoupled Clip这类更可控的方法,通过鼓励对低概率token的探索,仍能带来性能增益。

3)扩大量级的训练数据能够有效缓解偏好奖励带来的偏差并提升整体表现;适度增加RL迭代也能进一步优化模型,但过度训练可能损害泛化能力。

3. Benchmark层:MME-3DR

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

构建首个针对3D推理场景的系统评测基准MME-3DR:由空间&结构几何,机械可供性与物理合理性,生物/有机形态,长尾稀有实体和风格化/抽象形态五类组成。

MME-3DR希望更关注“在困难约束下是否还能保持一致、合理、可解释”,而非只展示多样性。研究团队发现:

1)近期的Text-to-3D模型在机械结构和非刚性生物体上表现尚可,但在其余三个类别上仍存在明显不足。RL训练在所有五类任务上都带来了显著提升。如图中雷达图所示。

2)MME-3DR能同时评估隐式推理与通用3D生成能力。图中柱状图显示,在随机采样的Toys4K测试集上,Trellis明显优于ShapeLLM-Omni。这一性能差距在MME-3DR中依然保持,进一步验证了其多样化物体覆盖带来的评测有效性。

4. RL范式层:Hi-GRPO & AR3D-R1

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

把3D生成看作天然的coarse-to-fine过程:
Step 1:高层语义先决定整体几何骨架;
Step 2:在几何稳定的前提下细化纹理与局部结构。

对两个step团队单独设计专有奖励模型集成进行监督,基于此提出层次化RL范式Hi-GRPO,并实现首个RL加持的Text-to-3D自回归模型AR3D-R1。

关键发现:RL正在帮3D生成模型“学会思考”

1. 不仅仅是“调美观”
在MME-3DR上,RL训练后的模型在空间几何、一致性和物理可行性等维度都有显著提升,表现出隐式3D推理能力的增强。

2. 范式对齐结构先验很重要
尊重“先几何、后纹理”的层次结构设计(Hi-GRPO),比简单在最终图像上打分更有效,也更可解释。

3. 性能与稳定性的二元博弈
奖励过于稀疏或RL迭代数过大,会带来训练不稳和模式坍缩;高质量人类偏好或强多模态奖励,可以在同等训练预算下取得更高回报。

4. 同时,结果清晰的显示出当前模型的能力边界
对极复杂几何、长尾概念和强风格化场景,模型仍会“逻辑崩坏”;真正可扩展的 3D RL 仍受限于算力与奖励获取成本。

更多可视化结果:

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

论文标题: Are We Ready for RL in Text-to-3D Generation? A Progressive Investigation
作者单位: 西北工业大学、北京大学、香港中文大学、上海人工智能实验室、香港科技大学


关注“鲸栖”小程序,掌握最新AI资讯

本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/14045

(0)
上一篇 1天前
下一篇 1天前

相关推荐

  • AI结对编程实战:Claude与Codex协同开发,效率提升10倍的魔法组合

    上周,我无意间组建了一支特别的开发团队。这支“团队”由我、Claude Code 和 Codex 组成,我们分坐在屏幕两侧,像两位彼此挑剔但又不得不合作的工程师。 说实话,效果堪称神奇。如果你想在不崩溃的情况下将开发速度提升一个数量级,这套组合可能是目前最接近真人结对编程体验的 AI 方案。 下面我将展示它的实际工作流程——不夸大,全是实战经验。 步骤 1:…

    2025年11月1日
    400
  • 2025 年最火的 5 大 MCP 服务器,打造极致「Vibe Coding」体验

    如果你还在手动复制项目上下文给AI,或者反复粘贴数据库Schema来让Cursor理解你的项目,那么你正在做太多不必要的重复劳动。 最近,我深入体验了一系列新的MCP工具,它们彻底重塑了我利用AI进行项目开发的方式。我们来深入探讨一下原因——为什么这些工具能让AI从一个“看起来不错”的玩具,转变为真正实用的生产力伙伴。 什么是MCP? “MCP”代表模型上下…

    2025年11月3日
    600
  • 突破RISC-V迁移瓶颈:首个RVV适配基准揭示LLM代码迁移潜力,20%通过率提升方案开源

    关键词: RISC-V Vector Intrinsic、Code Migration、Benchmark、Large Language Model、Intrinsic Code VecIntrinBench: Benchmarking Cross-Architecture Intrinsic Code Migration for RISC-V Vector…

    18小时前
    900
  • 9张图速览大模型核心技术:从Transformer到AI Agent的全面解析

    在 AI 工程领域,RAG(检索增强生成)、LLM(大语言模型)和 AI Agent(智能体)是当前最核心的技术方向。本文通过 9 张可视化图表,系统性地解析其核心概念、技术差异与应用场景,旨在帮助读者快速把握技术脉络。 1. Transformer 与 混合专家 (Mixture of Experts) 混合专家(MoE)是一种改进Transformer模…

    2025年5月8日
    500
  • 从AI聊天到代理小队:如何用SCCR框架替代50%编码时间

    AI 生成的图片(概念与提示由作者撰写) 某个深夜,我几乎要关闭代码编辑器,开始质疑自己是否还属于这个行业。 我遵循了所有“正确”的实践:多年的经验、整洁的提交记录、扎实的代码评审。然而,我却目睹着更年轻的开发者以快我一倍的速度交付功能。原因在于,他们天生采用了一种“AI优先”的工作方式,而我仍将AI视为一个更聪明的搜索框。 他们在与“代理”结对编程。我却在…

    2025年11月20日
    500