思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

在 LLM 时代,思维链(CoT)已成为解锁模型复杂推理能力的关键技术。然而,CoT 的冗长问题一直困扰着研究者——生成大量的中间推理文本步骤,带来了巨大的计算开销和显存占用,严重制约了推理效率。

为了解决这个问题,研究界近期尝试了「隐式 CoT」(Implicit CoT),即让模型在内部隐状态中完成推理,而不输出具体文本。这种方法虽然速度快,却是一个「黑盒」:我们无法得知模型的具体思考过程,也难以进行监督和干预。

那么,是否存在一种方案,既能保证推理速度快,又能让过程可分析,还无需昂贵的预训练成本?

针对这一挑战,腾讯内容服务部 BAC 联合清华大学与北京大学,提出了一种名为 Render-of-Thought (RoT) 的新框架。RoT 的核心思想非常巧妙:利用多模态模型(VLM)已有的视觉编码器作为「语义锚点」,将文本推理步骤「渲染」为图像的视觉嵌入(Visual Embeddings)。

这种方法不仅将冗长的推理过程压缩到了致密的视觉潜空间中,还通过视觉渲染让原本隐式的推理过程变得可分析、可追踪。

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

  • 论文标题: Render-of-Thought: Rendering Textual Chain-of-Thought as Images for Visual Latent Reasoning
  • 论文地址: https://arxiv.org/abs/2601.14750
  • Github 地址: https://github.com/TencentBAC/RoT
  • Huggingface 地址: https://huggingface.co/collections/TencentBAC/rot

显式太慢,隐式太黑盒?RoT 走出第三条路

  • 显式 CoT (Explicit CoT): 让模型将每一步推理都以文本形式写出。生成数百个 Token 的中间步骤不仅耗时,还极其消耗显存。
  • 隐式 CoT (Implicit CoT): 模型直接在内部隐状态中进行推理,不输出具体文本。这种方式如同将思考过程置于「黑箱」之中,缺乏对中间过程的观察和监督。
  • Render-of-Thought (RoT): 另辟蹊径,将「思考」转化为「作画」。利用视觉信息的高密度特性,将冗长的文本推理链压缩成紧凑的视觉向量。这不仅使推理过程有迹可循,还大幅提升了推理速度。

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

拒绝「黑盒」:让隐式推理「看得见、摸得着」

RoT 是一种将文本思维链通过光学渲染和视觉知识蒸馏转化为紧凑视觉表征的新范式。

与以往需要从头学习「推理 Token」的隐式方法不同,RoT 直接利用了现有 VLM(如 Qwen-VL, LLaVA)中冻结的视觉编码器。通过将 LLM 的隐状态与渲染文本的视觉嵌入对齐,RoT 实现了即插即用(Plug-and-Play),无需额外的预训练开销。

为了适应自回归思维链的序列化建模,研究团队摒弃了固定尺寸的图像渲染方案,采用了单行图像渲染。该策略可以根据文本长度动态调整图像宽度。此外,单行的渲染方式确保图像的 Patch 严格按照从左到右的方式提取,自然地将视觉序列与文本顺序对齐。

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

移花接木的艺术:两步训练实现「降维打击」

RoT 的实现过程主要分为两个阶段,旨在逐步将 LLM 的离散推理能力转化为连续的视觉隐空间推理能力。

阶段一:视觉对齐 (Visual Alignment)

这一阶段冻结了 LLM 和视觉编码器,仅训练一个轻量级的「视觉投影头」(Visual Projection Head)。目标是将 LLM 的文本隐状态映射到由视觉编码器提取的「渲染 CoT 图像」的特征空间上。

在推理步骤 t 时,生成的 latent embedding 可以记为 思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式,target vision embedding 记为 思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式。此时 vision embedding 的对齐损失可以记为:

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

此外,为了使模型与所提出的推理模式保持一致,同时对 <|img_end|> 这一特殊标记和答案的交叉熵损失进行了建模:

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

其中 思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式 是生成的 latent visual tokens,y 为问题 x 的 ground truth 答案。阶段一的整体损失函数为上述两者加权:

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

阶段二:潜在监督微调 (Latent Supervised Fine-Tuning)

在对齐之后,第二阶段通过 LoRA 微调 LLM,并且冻结已经训练对齐的投影头。此时,模型不再生成文本 Token,而是自回归地生成一串连续的「潜在视觉 Token」(Latent Visual Tokens)。这些 Token 在隐空间中模拟了视觉编码器的输出,最终引导模型解码出正确的文本答案。

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

推理与解码策略

推理过程要求模型自主地从连续的潜在推理空间导航到离散的文本解空间。研究团队探索了两种方案:基于 Special Token 的动态终止策略以及固定 Token 预算的静态终止策略。

  • 基于 Special Token 的动态终止策略

推理阶段在第一个时间步长 思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式 结束,此时终止标记的概率达到最大值:

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

其中 思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式 表示 Token 集,思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式 表示在时间步长 t 时的隐藏状态。模型从后续状态 思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式 开始对文本答案进行解码。

  • 固定 Token 预算的静态终止策略

该策略将潜在思维链的长度限制为一个固定的超参数。达到这个阈值时,会手动添加 <|img_end|> 这一特殊标记,以触发从潜在推理到文本生成的转换。

研究团队在实验中发现,动态终止策略的性能明显低于固定 Token 预算策略。这种性能差距可能源于连续潜空间中自我调节停止机制的内在不稳定性。在生成潜空间推理嵌入时,隐藏状态可能无法始终如一地为终止标记生成高置信度的预测,从而导致过早或延迟的转换,破坏推理流程。

此外,采用固定 Token 预算策略时,每个数据集的最优 Token 预算各不相同。在 GSM8k-Aug 数据集上,32 个 Token 能实现最佳性能,而 MATH 数据集则需要 64 个 Token 才能达到峰值准确率。研究者推测这种差异的出现是因为 MATH 数据集更具挑战性,需要更长的推理链。

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

实测数据说话:推理速度「狂飙」

研究团队在 GSM8k、MATH、SVAMP 等多个数学和逻辑推理基准上对 RoT 进行了广泛测试。实验基于 Qwen3-VL 和 LLaVA-V1.6 等主流架构。

  • 显著的压缩与加速: 相比于显式 CoT,RoT 实现了 3-4 倍的 Token 压缩率。在推理速度上,RoT 展现出了巨大的优势。例如在 Qwen3-VL-4B 模型上,Pass@1/#L(准确率与长度比)指标显著优于基线。

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

  • 优于现有的隐式推理方法: 与 Coconut、CoLaR 等最新的隐式推理方法相比,RoT 在准确率上表现出色。特别是在 MultiArith 数据集上,RoT (Qwen3-VL-4B) 达到了 97.2% 的准确率,显著优于同等规模下其他隐空间推理方案。

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式
思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

  • 隐空间推理的可分析性: RoT 的一大亮点在于其可分析性。由于隐状态被对齐到了视觉空间,可以通过热力图(Heatmap)等来观察模型的「思考过程」。研究团队展示了 MATH 数据集的一个案例。可以看到,生成的潜在 Token 呈现出明显的结构化模式,Token 相似度矩阵显示了推理的阶段性。这证明模型并非在随机生成向量,而是在进行有逻辑的隐式推理。

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

单行渲染 vs. 多行渲染

在 RoT 中,传统的固定尺寸的多行渲染会导致文本在图像中频繁换行。对于模型来说,这种换行在视觉空间中引入了不必要的「空间跳跃」,打断了语义的连续性。

为了验证这一点,研究团队对比了「固定尺寸的多行渲染图像」与 RoT 文中使用的「单行动态宽度图像」。

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

如上图所示,单行渲染相比多行渲染收敛更快,同时能够更好地契合语言模型从左到右的序列生成特性。

两阶段训练缺一不可

为了评估渐进式训练策略的效果,研究团队分别对每个阶段进行独立消融实验。

去除第一阶段会导致 MATH 的准确率从 33.2% 降至 22.2%,表明视觉对齐对于构建潜在空间结构以及在复杂任务中防止表示坍缩至关重要。同样,排除第二阶段也会导致性能显著下降,这会导致模型难以从连续的潜在空间中推导出最终答案。

思维链太长拖慢推理?把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

展望

Render-of-Thought 提出了一种极具前景的「视觉化思维」范式。它打破了文本模态的限制,利用视觉信息的高密度特性来压缩推理过程。

这项工作不仅大幅提升了推理效率,更重要的是,它通过「将思维渲染为图像」这一直观的想法,为理解大模型神秘的内部隐空间提供了一扇新的窗口。对于未来在端侧设备等资源受限场景下部署强推理模型,RoT 提供了一条切实可行的技术路径。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/19098

(0)
上一篇 2026年1月23日 下午3:56
下一篇 2026年1月23日 下午4:04

相关推荐

  • 数学圣殿数字化:IHES Library如何重塑全球数学教育生态

    在人工智能浪潮席卷全球的当下,数学作为基础科学的基石地位愈发凸显。近日,茶思屋科技上线的IHES Library项目,将法国高等科学研究所(Institut des Hautes Études Scientifiques)这座数学圣殿的2369个学术视频资源数字化开放,标志着顶尖数学教育资源普惠化迈出了关键一步。这一举措不仅是对传统学术传播模式的革新,更可能…

    2025年11月12日
    16800
  • 从支线项目到行业颠覆者:DeepSeek等8大AI产品的意外崛起之路

    从支线项目到行业颠覆者:DeepSeek等8大AI产品的意外崛起之路 这些改变世界的产品,最初居然都是不被当回事儿的支线项目 (side project) ? 包括但不限于: DeepSeek:幻方量化的支线项目 Qwen:阿里的支线项目 Claude Code:Anthropic的支线项目 ChatGPT:OpenAI的支线项目 PyTorch:Meta的…

    2026年1月11日
    15100
  • 揭秘马斯克开源X推荐算法:纯AI驱动的端到端系统如何重塑社交媒体内容分发

    马斯克开源𝕏推荐算法:一个纯AI驱动的端到端系统 目前,GitHub上已完整公开了马斯克开源的𝕏推荐算法系统。 开源文件明确指出,这是一个几乎完全由AI模型驱动的算法系统。 我们移除了所有人工设计特征和绝大多数启发式规则。 消息一出,社区反响热烈,一条获得高赞的评论写道: 不可思议!没有其他平台能做到如此透明。 马斯克本人也迅速转发了𝕏工程团队的原帖,但他此…

    2026年1月21日
    21100
  • 中国开源大模型引领全球AI应用创新:从Cursor到Windsurf的“反向技术输出”现象深度解析

    近期,全球AI领域出现了一个引人注目的现象:美国顶流AI编程应用Cursor和Windsurf相继发布的新模型,被多方证据指向其底层技术可能基于中国的开源大模型。这一发现不仅在国际技术社区引发热议,更揭示了中国在人工智能开源生态建设方面取得的实质性突破。 **技术溯源:从“中文输出”到模型架构的线索** Cursor最新发布的Composer-1模型被用户发…

    2025年11月2日
    19700
  • AI大模型周报:字节跳动、百度、OpenAI密集更新,闭源与开源模型齐头并进

    11月11日 【闭源】 字节跳动发布 doubao-seed-code,这是一款专为实际开发场景打造的AI编程模型。该模型强化了Bug修复能力和前端开发能力,并支持输入透明Cache能力,以有效降低使用成本。 【开源】 百度发布 ERNIE-4.5-VL-28B-A3B-Thinking。该模型在ERNIE-4.5-VL-28B-A3B基础上训练而成,是一个…

    2025年11月17日
    18600