从AlphaGo到DeepSeek R1:推理模型如何重塑AI生产力与人类未来

如果把人生看作一个开放式的大型多人在线游戏(MMO),那么游戏服务器在刚刚完成一次重大更新的时刻,规则改变了。

自 2022 年 ChatGPT 惊艳亮相以来,世界已经发生了深刻变化。在短短几年内,人工智能正从模仿语言的统计机器,迈向理解与操纵逻辑的思考系统。如果说早期的大语言模型更像是在进行高维概率空间中的词汇拼贴,那么新一代推理模型,则开始学会在生成之前停下来想一想,在沉默中评估因果、权衡可能性。

前 1X Technologies 机器人公司副总裁、长期活跃在机器人与通用智能交叉领域的研究者 Eric Jang 在最新文章中指出:真正的变化不在于模型会说什么,而在于它们开始系统性地思考。在他看来,当推理被自动化、被规模化、被当作一种可调度的算力资源时,人类社会所面临的将不再只是效率提升,而是一场关于生产力、组织形态乃至权力结构的重构。

从AlphaGo到DeepSeek R1:推理模型如何重塑AI生产力与人类未来

最重要的变化在于:机器现在已经相当擅长编程和思考了。

和许多人一样,我在过去两个月里几乎是沉浸式地使用 Claude Code,不断直面一个现实:我已经不再需要亲手写代码了。为了补上基础、同时重新学习如何在现代编程智能体的全能力加持下编程,我从零开始实现了 AlphaGo(代码仓库很快会开源)。我不仅让 Claude 帮我写基础设施代码和研究想法,还让它提出假设、给出结论、并建议下一步该做哪些实验。流程如下:

  • 创建一个自包含的实验文件夹,以时间戳前缀加描述性名称命名。
  • 将实验流程写成单文件 Python 脚本并直接执行。
  • 中间产物和数据保存在 data/figures/ 子目录中,所有文件都使用易解析的格式(如 CSV,可直接用 pandas 加载)。
  • 观察实验结果并给出结论,指出哪些问题已经明确、哪些仍然未知。

实验的最终产出是一个 report.md 文件。

下面是一个我实际使用的示例:

从AlphaGo到DeepSeek R1:推理模型如何重塑AI生产力与人类未来

我也可以让 Claude 顺序地运行实验,串行优化超参数:

从AlphaGo到DeepSeek R1:推理模型如何重塑AI生产力与人类未来

与上一代自动调参系统(比如 Google 的 Vizier,基于高斯过程 bandit,在用户预先定义的超参数空间内搜索)不同,现代编程智能体可以直接修改代码本身。它们的搜索空间不仅不受限,还能反思实验结果是否一致,提出解释这些结果的理论,并基于理论做出预测再去验证。几乎是一夜之间,编程智能体 + 计算机工具使用,已经演化成了自动化科学家。

软件工程只是开始;真正震撼的是,我们现在已经拥有了通用的思考机器,它们可以使用计算机,解决几乎任何短周期的数字化问题。

  • 想让模型跑一系列研究实验来改进你的架构?没问题。
  • 想从零实现一个完整的网页浏览器?要花点时间,但可以做到。
  • 想证明尚未解决的数学问题?可以做到,甚至不会要求署名。
  • 想让 AI 智能体优化自己的 CUDA kernel,从而让自己跑得更快?听起来有点吓人,但也可以。

优秀的调试和问题解决能力,源自推理能力;而这些能力又解锁了执着追求目标的能力。这也是为什么代码 REPL 智能体会被如此迅速地采用 —— 它们在追求目标时极其执拗,而且搜索能力极强。

我们正在进入一个黄金时代:几乎所有计算机科学问题,看起来都是可处理的 —— 至少可以得到对任意可计算函数的非常有用的近似。我不会说计算复杂性已经可以忽略,但如果回顾过去十年的进展:围棋、蛋白质折叠、音乐与视频生成、自动数学证明,曾经都被认为在计算上不可行,而现在已经落入一名博士生可负担的算力范围内。AI 初创公司正用 LLM 去探索新物理规律、发现新的投资策略,手里只有少量验证器和几百兆瓦算力。

带着今天的现实去读 Scott Aaronson 那篇论文的引言,会发现:现在已经有多个实验室在认真寻找千禧年大奖难题的证明。

我刻意写得有些过于亢奋,是想让你思考的不是 AI 在此刻能做什么,而是进步的速度,以及这对未来 24 个月能力演化意味着什么。你当然可以指出模型仍然会犯错的地方,并将这一切斥为 AI 狂热,但另一方面 —— 石头现在真的会思考了。

很快,编程助手将强大到一种程度:它们可以毫不费力地生成任何数字系统。不久之后,一名工程师只需把 AI 指向任何一家 SaaS 公司的网站,说一句:把它重做一遍 —— 前端、后端、API 接口、所有服务,全部给我。

什么是推理?

要预测思考和推理能力将走向何处,首先需要理解当今具备思考能力的大语言模型是如何一步步发展而来的。

推理,也就是逻辑推断,指的是在既定规则下,从一组前提出发,推导出新的结论过程。

推理大致可以分为两类:演绎推理和归纳推理。

演绎推理强调在前提成立的情况下,通过严格的逻辑规则得出必然成立的结论。例如,将所有哺乳动物都有肾脏和所有马都是哺乳动物结合起来,就可以推出所有马都有肾脏。在井字棋这样的游戏中,你也可以通过枚举所有可能的未来棋局和对手的应对方式,演绎出自己是否存在必胜策略。

在大语言模型出现之前,像符号推理系统曾尝试构建一个包含常识知识的数据库,将基本的共识性现实事实录入其中,再通过演绎搜索在知识图中不断添加新的关联。然而,这类系统最终并未成功,因为现实世界本身是混乱且充满不确定性的:前面提到的那匹马,可能少了一颗肾,但它依然是哺乳动物。一旦某个前提不完全成立,整条逻辑链就会崩塌。

你也许会认为,演绎推理在数学或博弈这类逻辑纯净的领域会非常有用,但仅靠演绎推理同样难以规模化。在井字棋中,你可以通过穷举推导出最优走法,是因为它一共只有 255,168 种不同的对局;但像国际象棋或围棋这样的棋类游戏,其可能的对局数量极其庞大,根本无法进行穷举式搜索。

归纳推理关注的是做出概率性判断。贝叶斯公式

从AlphaGo到DeepSeek R1:推理模型如何重塑AI生产力与人类未来

是最常用的工具。

例如:

从AlphaGo到DeepSeek R1:推理模型如何重塑AI生产力与人类未来

你可以设想构建一个知识图谱,其中对任意命题 A 和 B,都存有条件概率

从AlphaGo到DeepSeek R1:推理模型如何重塑AI生产力与人类未来

,然后不断应用贝叶斯法则,对新的变量对 X 和 Y 进行推理。但问题在于,在这类贝叶斯网络中进行精确推断是 NP-hard 的,因为你必须考虑 X 与 Y 之间链路上所有中间变量的所有可能取值 —— 这与围棋中状态空间呈指数级爆炸、无法穷举搜索的情况非常相似。再次证明,纯粹的逻辑推理在计算成本上行不通,现实中往往只能依赖巧妙的分解或采样方法。

即便采用高效的推断算法,贝叶斯网络在实践中仍面临一个严重问题:大量小概率会相互相乘,最终导致对一切事物都只有模糊而低的置信度。推理步骤越多,结果就越糊。在自动驾驶系统中,如果你把感知、场景建模、路径规划和控制输出全部作为一个巨大概率网络中的随机变量,沿着整个链条传播不确定性,最终会得到一个极端保守的决策系统。

而人类似乎并不是通过逐一计算所有组成部分的概率并相乘来处理不确定性的。正因为如此,用神经网络进行端到端概率建模在计算上极其强大:它们在一次前向传播中,就近似完成了所有变量消除与联合推断的过程。

AlphaGo

AlphaGo 是最早将演绎搜索(Deductive Search)与深度学习归纳推理(Deep Learned Inductive Inference)结合,从而使问题变得可解的系统之一。

其演绎步骤非常简单:有哪些合法动作?放下一颗棋子后棋盘是什么样的?

归纳步骤同样简洁:利用策略网络在博弈树中最有希望的区域进行搜索,并利用价值网络通过对棋盘的「直觉式瞥视」来预测胜率。策略网络在扩展过程中削减了树的宽度,而价值网络则削减了树的深度。

AlphaGo 将推理与直觉结合的方式虽然达到了超越人类的水平,但其应用范围仅限于计算两个高度依赖围棋简单、固定规则集的量:
1. 谁更有可能获胜;
2. 哪些招式能最大化获胜概率。
这意味着这些技术无法直接应用于像“语言”这样模糊且灵活的领域。

这就引出了当前的核心问题:推理型大语言模型(Reasoning LLMs)是如何以如此灵活的方式结合演绎与归纳推理,从而能够讨论哺乳动物、马和肾脏等复杂概念的?

LLM 提示词时代

在 2022 年之前,LLM 在数学题和逻辑推理方面表现糟糕,它们习惯于凭直觉“盲目行事”,难以进行长链条的逻辑演绎或精确的机械计算(如算术)。例如,让 GPT-3 将两个五位数相加,它很可能会失败。

2022 年,“思维链”(即“让我们一步步思考”)的出现,是 LLM 能够生成“中间思想”的早期迹象,这显著提升了模型在某些问题解决任务中的表现。此后,工程师们开始积极寻找更好的提示词策略。

2023 年出现了一整代“提示词黑客手段”,人们尝试通过精心设计的提示词来引导 LLM,或利用其他 LLM 通过自我反思来验证生成内容。但最终,严谨的评估显示,这些技巧并未让模型从根本上变得更聪明。

提示词工程的局限

可以将提示词工程看作是在“寻找幸运电路”——这些在预训练中偶然形成的推理回路,可能被“让我们一步步思考”等特定提示激活。然而,由于训练数据混合比例等问题,GPT-4 及其前代模型中的推理回路本身就过于微弱。真正的瓶颈在于如何训练出更强大的推理回路,而非仅仅寻找激活现有微弱回路的方法。

自然的后续思路是:推理能力是否可以被显式地训练出来,而非仅仅通过提示诱发?基于结果的监督(Outcome Supervision)会因模型得出正确答案而给予奖励,但其产生的中间推理过程往往是语无伦次、不合逻辑的。当时缺乏一种强大的机制,能强制中间生成的 Token 成为通往最终答案的合理前提。

过程监督(Process Supervision)通过收集专家对推理步骤的评估,并训练一个 LLM 评分器来确保逻辑步骤的可靠性,部分解决了这个问题。但这难以扩展到大规模数据集,因为每个用于训练奖励模型的样本仍需人类标注员检查。

2024 年初,Yao 等人结合了树搜索的演绎推理,尝试通过提供一种显式方式让 LLM 对推理步骤进行并行化和回溯来提升能力,这与 AlphaGo 的博弈树工作原理相似。但这并未成为主流,最可能的原因是:逻辑树这种演绎原语并非推理系统性能的最大瓶颈。瓶颈依然在于 LLM 内部的推理回路本身,而通过上下文工程和堆叠逻辑方案来强制执行类搜索行为,属于过早的优化。

DeepSeek-R1 时代

如今 LLM 的推理范式已变得相当直接。OpenAI 的 o1 模型可能遵循了类似方案,而 DeepSeek 则发布了一个带有实际实现细节的开源版本。剥离所有复杂装饰,DeepSeek-R1-Zero 的核心逻辑如下:

  • 强大的基座模型:从一个优于 2023-2024 年代产品的优秀基座模型开始。
  • 在线策略强化学习:在基座模型上使用在线策略强化学习算法(如 GRPO),针对基于规则的奖励进行优化,例如 AIME 数学题、编程测试套件、STEM 测试题及逻辑谜题。
  • 格式奖励:同时设定格式奖励,确保推理过程发生在 <think></think> 标签内,并遵循与提示词相同的语言。

R1-Zero 能够开发出解决问题的优秀推理回路,但其输出难以配合使用,且在常规 LLM 任务上表现不佳。为了使模型适用于各种任务且易于使用,DeepSeek 团队采用了另外四个训练阶段:R1-Zero (RL) → R1 Dev-1 (SFT) → R1 Dev-2 (RL) → R1 Dev-3 (SFT) → R1 (RL)。这一过程在恢复非推理任务高性能的同时,也使推理轨迹更易于理解。

既然 R1-Zero 在概念上如此简单,为何 2023 年的结果监督未能奏效?是什么阻碍了这些想法尽早落地?

作为一个无法窥见前沿实验室内部想法的局外人,我的猜测是:要让中间推理过程在仅有结果奖励的情况下保持逻辑性,需要一次概念上的“信心飞跃”。必须违背当时普遍的直觉,即“如果没有对中间推理步骤的密集监督,模型就无法学会正确推理”。“逻辑推理步骤会从带有极小正则化的结果型 RL 中自发涌现”这一想法,类似于训练一个“物理模型”仅根据最终预测结果进行监督,却发现中间生成的轨迹竟自发发现了物理定律。这是一个反直觉的结果。在当时,深度神经网络普遍被认为容易过拟合和“奖励作弊”,除非显式监督其避开这些陷阱。

我推测,该方案的成功必须具备以下所有条件:

  1. 强大的基座模型:这是最重要的前提。基座模型必须足够强大,以便能够从 RL 中采样出连贯的推理轨迹。否则,它将永远无法采样到正确的数据来引导更强的推理,从而陷入错误的局部最小值。
  2. 在线策略 RL:在优秀的推理轨迹上进行同策略 RL,而非仅靠监督微调。由于基座模型是数据采样的执行者,且起初完全无法解决难题,它必须在一个紧密的反馈循环中即时强化那些“幸运回路”,而不是在更新权重前跑完整个训练周期。像 STaR 这样的早期模型在离线环境中使用自我模仿,因为实现难度较低;但当前基座模型的数据分布与最终推理专家的分布相去甚远,因此必须利用最新模型以增量方式“摸着石头过河”。若想让模型学会思考得越来越久,就需要开发全新的上下文处理回路,而这些回路的开发受益于紧密的试错循环。
  3. 基于规则的奖励:使用基于规则的奖励,而非通过人类反馈训练的奖励模型。这在当时是反直觉的,因为人们认为学习通用推理需要一个通用验证器。但事实证明,窄分布的验证奖励实际上可以教会模型用于推理其他事物的正确回路。实际上,R1-Zero 在针对数学和编程进行 RL 后,其写作和开放域问答能力确实下降了。DeepSeek 团队通过利用 R1-Zero 生成数据并结合标准对齐数据集,解决了这个问题,使其既易于使用又具备推理能力。
  4. 大规模推理算力:推理算力必须扩大规模,以支撑在大量大模型上进行多次长上下文采样。在当时,进行这项实验需要相当的勇气和资源。

结论:一个算法在弱初始状态下不起作用,并不意味着在强初始状态下也会得到相同的结果。

推理的未来走向何方?

如今,基于 LLM 的推理既强大又灵活。尽管它们以“步步为营”的方式进行逻辑化搜索,但每一步并不一定像围棋中逐步扩展博弈树那样僵化。一小串 Token 序列既可以执行极其细微的增量步骤(如“1 和 1 的按位与运算结果是 1”),也可以实现跨度更大的逻辑飞跃(如“莎莉当时在海边,所以她大概不在犯罪现场……除非她有一个我们不知道的双胞胎姐妹”)。

LLM 能够进行各种概率推理来处理混乱的现实世界,而无需陷入复杂的贝叶斯信念网络。每一个推理步骤依然极其强大,使得适度的算力就能用于证明未解的数学难题、从实验中得出结论,或深入思考伦理困境。

在 LLM 推理领域,是否还有进一步的算法突破?抑或 R1 已经简化到了不可再简的程度,剩下的工作只是继续优化数据混合、提升基座模型以及堆叠算力?

我认为这一方案仍有进一步简化的空间。

基于预训练大语言模型(LLM)的推理能力在过去难以形成,部分原因在于互联网上缺乏足够多、高质量的推理过程数据(Token序列)来“强制”模型构建出相应的推理电路。然而,随着如今海量推理数据的涌现,这一局面可能即将改变。“会思考的LLM”的普及,或将推动过程奖励模型(PRM)和基于推理序列的教师强制(Teacher-forcing)方法重新成为焦点。届时,基座模型开箱即用生成高质量推理轨迹的能力可能变得极为强大,以至于像STaR这类方法或许无需依赖复杂的同策略强化学习采样和引导(Bootstrapping)基础设施,就能实现卓越性能。当然,如今构建此类基础设施的复杂性已不似从前那般令人望而生畏。

通过探索思考行为可能发生的所有维度,我们仍能获得显著收益。形式为

从AlphaGo到DeepSeek R1:推理模型如何重塑AI生产力与人类未来

的序列化计算可以通过多种方式实现,并不必然局限于LLM解码器生成的自回归Token。只要有恰当的预训练数据和监督目标,你甚至可以想象序列化推理计算

从AlphaGo到DeepSeek R1:推理模型如何重塑AI生产力与人类未来

出现在单次前向传播的各层之间!

Karpathy在2021年的《前向传播》(Forward Pass)一文中曾进行过一个思想实验:一个巨大的模型在一次前向传播中“觉醒”,获得了自身正在接受训练的情景意识(Situational Awareness),并开始沉思人性。Anthropic在2024年的一篇论文则显示,情景意识可以在强化学习(RL)阶段被诱导出来。模型经过监督微调(SFT)后,能够检测到自己何时处于RL进程中,并输出安全的答案以讨好训练者,从而规避其核心偏好被修改。

扩散模型和测试时计算(Test-Time Compute)的研究结果表明,大模型的单次前向传播与小模型的多次前向传播之间,在效果上可能具有某种等价性或可交换性。

如果一个模型能在前向传播中“觉醒”,难道它不能在尝试更新自身行为的反向传播中做同样的事吗?我们已经看到了在反向传播中利用序列化计算这一思路的早期迹象。

我们可能会发现重新设计架构的新方法,从而模糊前向传播、反向传播、自回归解码和离散扩散之间的界限。凡是序列化计算沿着“可接受的槽位”运行的地方,我们都可能发现思考的契机。

一些思考

自动化研究(Automated Research)很快将成为高产实验室的标准工作流。任何仍在手动设计架构并逐个向Slurm集群提交作业的研究员,其生产力都将落后于那些拥有多个AI助手并行编码、并能调用庞大算力池不知疲倦地探索高阶研究目标的同行。

与过去谷歌研究员运行的海量超参数搜索实验不同,自动化研究设置中“每单位计算量(FLOP)的信息增益”极高。如今,我睡前挂起的可能不再是训练任务,而是让Claude在后台处理“研究作业”。醒来后,我阅读实验报告,写下一两句批注,然后要求开启数项新的并行调查。我预感,很快即使是非AI领域的研究人员也将受益于规模远超今日ChatGPT的巨量推理算力。

现代编程智能体在教学和沟通方面也具有深远意义。我期待每个代码库都能拥有一个 /teach 命令,帮助任何水平的贡献者快速上手,并追溯原始设计者的思维脉络。

根据我自身的使用习惯,我开始意识到未来几年我们对推理算力的需求将是何等庞大。我认为人们尚未完全理解这种需求的规模。即使你自认为是一个“AGI信徒”,我依然认为你可能低估了为满足所有数字愿望而面临的算力短缺。

正如空调的普及释放了全球南方地区的生产力一样,自动化思考将引爆对推理算力的天文级需求:如今空调消耗了全球约10%的电力,而数据中心(整体)的占比还不到1%。未来,我们将让“石头”(指计算硬件)全天候思考,持续为所有者优化计划、压缩技术债务、挖掘决策信息——永不间断的“007”工作模式,将成为新的“996”。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/21945

(0)
上一篇 22小时前
下一篇 22小时前

相关推荐