Anthropic CEO:Scaling Law远未撞墙,2026年将迎激进加速

在近期的一次行业会议上,Anthropic 的首席执行官 Dario Amodei 对当前 AI 发展的核心驱动力——Scaling Law(规模定律)——给出了明确判断:我们并未看到其撞墙,相反,一场激进的加速即将到来。

他的核心观点是:Scaling Law 不仅没有失效,而且预计在 2026 年将迎来一轮激进的加速,其速度将超出所有人的预期。

这一判断出自全球估值最高的 AI 公司之一 Anthropic 的掌门人。该公司旗下的 Claude 系列模型在企业级 API 市场占据显著份额,其观点基于内部持续的研发进展与观察。

棋盘寓言:我们正站在第40格

为了说明 AI 能力增长的指数级特性,Dario Amodei 援引了经典的“棋盘上的稻米”寓言。

在国际象棋的 64 格棋盘上,第一格放 1 粒米,此后每一格的米粒数量翻倍。前 32 格的总和约为 42 亿粒,看似庞大,但与整个棋盘的总量相比微不足道。真正的爆炸性增长全部集中在后 32 格,从第 33 格开始,每一格的增量都超过之前所有格子的总和。

Dario Amodei 指出,当前的 AI 发展正处在这个棋盘的“第 40 格”。这意味着,迄今为止我们所见证的所有进步——从 GPT-3 到 Claude 3.5 等模型的迭代——其总和可能只是未来 24 格(即下一阶段指数增长)的前奏。从第 40 格到第 64 格的速度,将远超我们已有的体验。

2026年:激进加速的转折点

Dario Amodei 用“激进加速”(Radical Acceleration)来形容对 2026 年的预期。这并非稳步提升,而是一个关键的转折点。

科技行业存在一个典型的信息不对称:公众所感知到的 AI 能力,通常滞后于实验室内部的真实进展。当外界为模型的进步感到惊讶时,研发前沿可能早已迈出更远。Dario Amodei 的预测暗示,2026 年将是实验室前沿能力大规模溢出到现实世界的年份。

代码生成:能力爆发的领先指标

会议上透露的一个关键信息是:代码生成是目前 AI 能力进展的最强领先指标,其进步速度甚至超出了最乐观的预期。

这种能力演进可分为几个阶段:
1. 辅助工具阶段:模型帮助编写代码,提升效率。
2. 上下文接管阶段:模型开始管理围绕代码的整个工作流,如服务器、集群、工具链等。
3. 递归改进阶段:模型开始构建工具和脚手架来优化自身的工作流程,即 AI 利用 AI 来改进 AI

Dario Amodei 表示,这种端到端的生产效率提升可达数倍。他进一步预测,发生在代码领域的这种模式,将以相似路径渗透至金融、医疗、法律等其他经济领域。

RSI:迈向自我改进的阶梯

在公开讨论之外,一个更深刻的趋势是递归式自我改进(Recursive Self-Improvement, RSI)。这指的是 AI 系统能够自主发现不足、设计实验、优化参数并提升自身能力。

当 AI 进入“自我改进”的循环,其进化速度可能从指数增长转向“指数的指数”增长。Dario Amodei 提到的模型已能搭建工具改进自身工作流,这被认为是 RSI 的早期形态。

人才:最宝贵的资产

在技术狂飙的背景下,顶尖 AI 人才的争夺异常激烈。Dario Amodei 分享了一个案例:去年曾有竞争对手试图以巨额薪酬挖角 Anthropic 的研究人员。

Anthropic 的应对策略是强调使命感和团队文化,而非单纯进行薪酬竞价。最终,在极具诱惑力的条件下,团队保持了极高的稳定性。Dario Amodei 指出,公司创始团队全员在职,早期员工流失率极低,这在硅谷和 AI 人才争夺白热化的环境中堪称罕见。他认为,留住核心人才与构建持续创新的文化,是应对未来加速发展的关键基础。

他的总结只有一句话:技术可以买,文化买不到。

这句话在AI军备竞赛的背景下,有着非常现实的含义——当对手可以斥巨资购买算力与数据时,唯一无法用钱解决的,是一支真正相信自身使命的团队。

Scaling Law 撞墙的迷思从何而来?

过去一年,业内反复出现“Scaling Law 即将撞墙”的论调。

其核心观点是:随着模型规模扩大,继续堆叠算力和数据所带来的性能边际收益正在递减,提升速度明显放缓。部分研究者甚至断言,大模型的发展已接近天花板。

早在2024年,OpenAI 首席科学家 Ilya Sutskever 就曾提及“AI 训练的燃料即将耗尽”(不过当时 Sam Altman 公开表示“没有墙”)。

这种说法并非全无依据——在某些特定基准测试上,最新模型的进步幅度确实不如早期显著。

但 Anthropic 首席执行官 Dario Amodei 显然不同意这一结论。他的反驳逻辑直接而有力:

第一,你所看到的减速,可能只是指数曲线上的一次微小波动。

从棋盘的第 38 格看向第 39 格,增长似乎只是翻了一倍。但这一倍的绝对值,已然是天文数字。

第二,Scaling 不止是堆参数。

训练方法的创新、推理计算的优化、数据质量的提升、工具使用能力的增强……这些维度上的进步,正在开辟全新的增长曲线。

第三,也是最关键的一点——他们在内部看到了加速。

这不是理论推演,而是来自前沿实验室的真实实验数据。当一位每日审视最新数据的研究者告诉你“墙不存在”,这一信息的权重,理应远超任何社交媒体上的观点。

写在最后

坦率地说,Dario 的展望令人既兴奋又不安。

兴奋在于:如果他是对的,我们正站在人类历史上最大技术革命的临界点。

每一个行业都将被重塑,每一种工作都将被重新定义,生产力的飞跃可能超越所有现有经济模型的预测。

不安在于:指数增长的本质,就是它永远比你预期的来得更快。

而这一次,加速的不是某个具体产品,是智能本身。Dario 也承认:世界尚未准备好。

从棋盘的第 40 格回望,第 39 格的景象已足够震撼。

但第 40 格之后,人类科技没有退路。

棋盘的后半场,智人已无回头路。

参考资料
https://www.tmtbreakout.com/p/tmtb-dario-amodei-anthropic-ceo-at


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/24217

(0)
上一篇 2026年3月4日 下午8:39
下一篇 2026年3月5日 上午10:47

相关推荐

  • 从万能钥匙到AI钥匙:谷歌创始人布林复盘技术决策与未来展望

    在斯坦福大学的演讲中,谷歌联合创始人谢尔盖·布林以罕见的坦诚,回顾了谷歌从诞生到AI竞争中的关键转折点。这场演讲不仅是对一家科技巨头历史的梳理,更是对技术决策、创新节奏与产业趋势的深刻反思。 布林首先指出,谷歌的诞生源于一次“无心插柳”的创业。1995年,他与拉里·佩奇在斯坦福相遇,最初的目标是开发一个名为“BackRub”的搜索算法,希望通过链接分析评估网…

    2025年12月15日
    27600
  • LLM驱动的核函数进化:CAKE框架如何革新贝叶斯优化

    在科学与工程实践中,常会遇到计算成本高、评估耗时的函数优化问题,例如复杂机器学习模型的超参数调整或新型材料的设计。贝叶斯优化(Bayesian Optimization,BO)作为针对这类“黑箱”问题的优化方法,已被证明具备良好效果。然而,该方法的性能很大程度上受限于其内部代理模型的选择,特别是当采用高斯过程(Gaussian Process,GP)作为代理…

    2025年12月2日
    28600
  • 突破硬件限制:ONNX Runtime GenAI实现LLM本地CPU推理新范式

    有时小模型就足够了,而且你并不总是需要 GPU。将一些“工具型”任务直接跑在 CPU 上有很多理由:有时你就是没有 GPU;或者你希望数据留在本地;又或者你只是想保持架构简单。 这就是 ONNX Runtime GenAI 的用武之地。它让你可以在想要的地方运行模型:有 GPU 就用 GPU,没有就跑 CPU,而且无需改一行代码。本文将展示它如何工作。所有示…

    2026年2月7日
    50800
  • GPT-5.2 vs Gemini 3 Pro:年度AI对决的深度技术剖析与产业格局演变

    在人工智能领域竞争白热化的2025年,OpenAI与谷歌之间的技术对决达到了前所未有的激烈程度。GPT-5.2作为OpenAI年度重磅产品,在发布48小时内即面临来自各方的严格审视,而谷歌Gemini 3 Pro则凭借卓越表现重新定义了行业标杆。这场对决不仅关乎单一产品的成败,更折射出两大科技巨头在技术路线、研发策略和市场布局上的根本差异。 Epoch AI…

    2025年12月14日
    33300
  • Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈

    Claude Code 创始人 Boris Cherny 近期在社交平台 X 上公布了过去一个月使用 Claude Code 的真实生产数据,其规模令人惊讶: 在过去 30 天里,我合并了 259 个 PR —— 共 497 次提交,新增约 4 万行代码,删除约 3.8 万行代码。而且,每一行代码都是由 Claude Code + Opus 4.5 编写的。…

    2025年12月29日
    69800