强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

在大语言模型和文生图领域,强化学习(RL)已成为提升模型思维链与生成质量的关键方法。但当我们将目光转向更为复杂的文本到3D生成时,这套方法还会管用吗?

近期,一项由西北工业大学、北京大学、香港中文大学、上海人工智能实验室、香港科技大学合作开展的研究系统性探索了这一重要问题。

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

论文链接: https://arxiv.org/pdf/2512.10949
代码链接: https://github.com/Ivan-Tang-3D/3DGen-R1

强化学习是否能够用于Text-to-3D生成,以加强3D自回归模型的逐步推理与生成过程?

在LLM推理和2D文生图中,RL已经证明可以显著提升CoT推理能力和生成质量。但3D物体更长、更稠密、更具几何约束。

因此相关方向研究常面临这几个问题:
1. 奖励如何同时刻画语义对齐、几何一致性和视觉质量?
2. 现有RL算法是否适合自回归式3D生成?
3. 缺乏专门考察“3D推理能力”的Benchmark,难以系统评估RL的真实贡献。

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

Progressive Investigation:四个层次拆解Text-to-3D+RL

1. Reward设计层

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

经过系统对比人类偏好、文本对齐、多视图一致性、3D美学等多种奖励组合。研究团队发现:

1)对齐人类偏好信号是提升整体3D质量的关键。其他奖励维度单独使用时带来的提升有限,但在叠加到偏好奖励之上时能够持续带来增益;

2)对于同一奖励维度而言,专门化的奖励模型通常比大型多模态模型(LMMs)表现出更强的鲁棒性。然而,通用多模态模型(Qwen-VL)在3D相关属性上出乎意料地鲁棒,为“低成本奖励”提供可能。

2. RL算法层

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

评估GRPO、DAPO、GSPO等在3D自回归生成中的表现。主要Insight:

1)相比序列级操作,3D自回归生成中的强化学习更偏好token级策略。
如表2所示,在相同奖励模型配置下,token级平均策略带来的提升显著大于序列级的重要性采样与剪切方法(GSPO)。

2)简单的技巧即可稳定训练,尤其是Dynamic Sampling,只要策略更新受控。完全移除KL惩罚会导致性能下降;而像Decoupled Clip这类更可控的方法,通过鼓励对低概率token的探索,仍能带来性能增益。

3)扩大量级的训练数据能够有效缓解偏好奖励带来的偏差并提升整体表现;适度增加RL迭代也能进一步优化模型,但过度训练可能损害泛化能力。

3. Benchmark层:MME-3DR

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

构建首个针对3D推理场景的系统评测基准MME-3DR:由空间&结构几何,机械可供性与物理合理性,生物/有机形态,长尾稀有实体和风格化/抽象形态五类组成。

MME-3DR希望更关注“在困难约束下是否还能保持一致、合理、可解释”,而非只展示多样性。研究团队发现:

1)近期的Text-to-3D模型在机械结构和非刚性生物体上表现尚可,但在其余三个类别上仍存在明显不足。RL训练在所有五类任务上都带来了显著提升。如图中雷达图所示。

2)MME-3DR能同时评估隐式推理与通用3D生成能力。图中柱状图显示,在随机采样的Toys4K测试集上,Trellis明显优于ShapeLLM-Omni。这一性能差距在MME-3DR中依然保持,进一步验证了其多样化物体覆盖带来的评测有效性。

4. RL范式层:Hi-GRPO & AR3D-R1

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

把3D生成看作天然的coarse-to-fine过程:
Step 1:高层语义先决定整体几何骨架;
Step 2:在几何稳定的前提下细化纹理与局部结构。

对两个step团队单独设计专有奖励模型集成进行监督,基于此提出层次化RL范式Hi-GRPO,并实现首个RL加持的Text-to-3D自回归模型AR3D-R1。

关键发现:RL正在帮3D生成模型“学会思考”

1. 不仅仅是“调美观”
在MME-3DR上,RL训练后的模型在空间几何、一致性和物理可行性等维度都有显著提升,表现出隐式3D推理能力的增强。

2. 范式对齐结构先验很重要
尊重“先几何、后纹理”的层次结构设计(Hi-GRPO),比简单在最终图像上打分更有效,也更可解释。

3. 性能与稳定性的二元博弈
奖励过于稀疏或RL迭代数过大,会带来训练不稳和模式坍缩;高质量人类偏好或强多模态奖励,可以在同等训练预算下取得更高回报。

4. 同时,结果清晰的显示出当前模型的能力边界
对极复杂几何、长尾概念和强风格化场景,模型仍会“逻辑崩坏”;真正可扩展的 3D RL 仍受限于算力与奖励获取成本。

更多可视化结果:

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题

论文标题: Are We Ready for RL in Text-to-3D Generation? A Progressive Investigation
作者单位: 西北工业大学、北京大学、香港中文大学、上海人工智能实验室、香港科技大学


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/14045

(0)
上一篇 2025年12月20日 下午12:18
下一篇 2025年12月20日 下午12:43

相关推荐

  • QwenLong-L1.5:一套配方三大法宝,让30B MoE模型长文本推理媲美GPT-5

    作为大模型从业者或研究员,你是否也曾为某个模型的“长文本能力”感到兴奋,却在实践中发现其表现远未达到预期? 你很可能遇到过以下困境之一: 虚假的繁荣:模型在“大海捞针”(Needle-in-a-Haystack)等简单检索测试中表现出色,营造了长文本问题已解决的假象。然而,当任务升级为需要串联分散证据、整合全局信息的多跳推理(multi-hop reason…

    2025年12月29日
    23800
  • 上海云宇星空大模型:6000亿参数重构政务AI,从“能调图”到“敢决策”的深度革命

    当大模型能调图、会统计、会写报告,政务工作流正在被重构。 当下,政务大模型的落地路径,正在分化出两条截然不同的跑道:当不少地方政府选择以“轻量化”的方式,将通用模型快速接入政务系统时,上海市规划和自然资源局给出了一条更“重”、更深的路线。 近日,由上海市规划资源局与商汤大装置联合打造的全国规划资源领域首个基础大模型“云宇星空大模型”(专业版)上线。这并非一个…

    2025年12月25日
    23900
  • 构建本体驱动GraphRAG:从数据填埋场到零噪声知识图谱的蜕变之路

    构建一个自我演进的知识图谱,它不仅能存储数据,更能理解、校验并持续演化。 gemini 在初次构建 GraphRAG 系统时,我遵循了多数教程的路径:将文档输入大语言模型(LLM),抽取实体,将生成的 JSON 导入 Neo4j,然后宣告完成。在演示环境中,一切运行完美。直到我将它应用于真实的医疗记录。 问题随之暴露。LLM 在一份报告中抽取了“John D…

    2025年12月15日
    21600
  • Agent原生架构:Claude Code 后时代该如何构建智能体应用

    最近,Claude Code 的流行不仅源于其作为“Vibe编程神器”的体验,更在于它正在重塑智能体的开发范式。过去那种依赖胶水代码或拖拽式构建的、面向过程的传统智能体,正面临被一种全新模式的挑战:这种模式只需开发者描述目标结果,然后交由智能体通过持续循环运行来达成目标。 Claude Code 配合其恰到好处的插件与技能机制证明,一个优秀的编程智能体,本身…

    2026年1月11日
    22800
  • OpenAI内部开发大揭秘:Codex已成工程师队友,每周重塑软件开发!

    “未来某个时间点,我们或许会为智能体(Agent)构建软件。届时,智能体可能会扮演产品经理或产品工程师的角色。” 在近期举行的 Pragmatic Summit 上,OpenAI Codex 工程主管 Tibo Sottiaux 与 OpenAI 应用首席技术官 Vijaye Raji 分享了 OpenAI 内部工程师使用 AI 进行开发的真实体验与观察。 …

    2026年2月27日
    37600