Anthropic CEO:Scaling Law远未撞墙,2026年将迎激进加速

在近期的一次行业会议上,Anthropic 的首席执行官 Dario Amodei 对当前 AI 发展的核心驱动力——Scaling Law(规模定律)——给出了明确判断:我们并未看到其撞墙,相反,一场激进的加速即将到来。

他的核心观点是:Scaling Law 不仅没有失效,而且预计在 2026 年将迎来一轮激进的加速,其速度将超出所有人的预期。

这一判断出自全球估值最高的 AI 公司之一 Anthropic 的掌门人。该公司旗下的 Claude 系列模型在企业级 API 市场占据显著份额,其观点基于内部持续的研发进展与观察。

棋盘寓言:我们正站在第40格

为了说明 AI 能力增长的指数级特性,Dario Amodei 援引了经典的“棋盘上的稻米”寓言。

在国际象棋的 64 格棋盘上,第一格放 1 粒米,此后每一格的米粒数量翻倍。前 32 格的总和约为 42 亿粒,看似庞大,但与整个棋盘的总量相比微不足道。真正的爆炸性增长全部集中在后 32 格,从第 33 格开始,每一格的增量都超过之前所有格子的总和。

Dario Amodei 指出,当前的 AI 发展正处在这个棋盘的“第 40 格”。这意味着,迄今为止我们所见证的所有进步——从 GPT-3 到 Claude 3.5 等模型的迭代——其总和可能只是未来 24 格(即下一阶段指数增长)的前奏。从第 40 格到第 64 格的速度,将远超我们已有的体验。

2026年:激进加速的转折点

Dario Amodei 用“激进加速”(Radical Acceleration)来形容对 2026 年的预期。这并非稳步提升,而是一个关键的转折点。

科技行业存在一个典型的信息不对称:公众所感知到的 AI 能力,通常滞后于实验室内部的真实进展。当外界为模型的进步感到惊讶时,研发前沿可能早已迈出更远。Dario Amodei 的预测暗示,2026 年将是实验室前沿能力大规模溢出到现实世界的年份。

代码生成:能力爆发的领先指标

会议上透露的一个关键信息是:代码生成是目前 AI 能力进展的最强领先指标,其进步速度甚至超出了最乐观的预期。

这种能力演进可分为几个阶段:
1. 辅助工具阶段:模型帮助编写代码,提升效率。
2. 上下文接管阶段:模型开始管理围绕代码的整个工作流,如服务器、集群、工具链等。
3. 递归改进阶段:模型开始构建工具和脚手架来优化自身的工作流程,即 AI 利用 AI 来改进 AI

Dario Amodei 表示,这种端到端的生产效率提升可达数倍。他进一步预测,发生在代码领域的这种模式,将以相似路径渗透至金融、医疗、法律等其他经济领域。

RSI:迈向自我改进的阶梯

在公开讨论之外,一个更深刻的趋势是递归式自我改进(Recursive Self-Improvement, RSI)。这指的是 AI 系统能够自主发现不足、设计实验、优化参数并提升自身能力。

当 AI 进入“自我改进”的循环,其进化速度可能从指数增长转向“指数的指数”增长。Dario Amodei 提到的模型已能搭建工具改进自身工作流,这被认为是 RSI 的早期形态。

人才:最宝贵的资产

在技术狂飙的背景下,顶尖 AI 人才的争夺异常激烈。Dario Amodei 分享了一个案例:去年曾有竞争对手试图以巨额薪酬挖角 Anthropic 的研究人员。

Anthropic 的应对策略是强调使命感和团队文化,而非单纯进行薪酬竞价。最终,在极具诱惑力的条件下,团队保持了极高的稳定性。Dario Amodei 指出,公司创始团队全员在职,早期员工流失率极低,这在硅谷和 AI 人才争夺白热化的环境中堪称罕见。他认为,留住核心人才与构建持续创新的文化,是应对未来加速发展的关键基础。

他的总结只有一句话:技术可以买,文化买不到。

这句话在AI军备竞赛的背景下,有着非常现实的含义——当对手可以斥巨资购买算力与数据时,唯一无法用钱解决的,是一支真正相信自身使命的团队。

Scaling Law 撞墙的迷思从何而来?

过去一年,业内反复出现“Scaling Law 即将撞墙”的论调。

其核心观点是:随着模型规模扩大,继续堆叠算力和数据所带来的性能边际收益正在递减,提升速度明显放缓。部分研究者甚至断言,大模型的发展已接近天花板。

早在2024年,OpenAI 首席科学家 Ilya Sutskever 就曾提及“AI 训练的燃料即将耗尽”(不过当时 Sam Altman 公开表示“没有墙”)。

这种说法并非全无依据——在某些特定基准测试上,最新模型的进步幅度确实不如早期显著。

但 Anthropic 首席执行官 Dario Amodei 显然不同意这一结论。他的反驳逻辑直接而有力:

第一,你所看到的减速,可能只是指数曲线上的一次微小波动。

从棋盘的第 38 格看向第 39 格,增长似乎只是翻了一倍。但这一倍的绝对值,已然是天文数字。

第二,Scaling 不止是堆参数。

训练方法的创新、推理计算的优化、数据质量的提升、工具使用能力的增强……这些维度上的进步,正在开辟全新的增长曲线。

第三,也是最关键的一点——他们在内部看到了加速。

这不是理论推演,而是来自前沿实验室的真实实验数据。当一位每日审视最新数据的研究者告诉你“墙不存在”,这一信息的权重,理应远超任何社交媒体上的观点。

写在最后

坦率地说,Dario 的展望令人既兴奋又不安。

兴奋在于:如果他是对的,我们正站在人类历史上最大技术革命的临界点。

每一个行业都将被重塑,每一种工作都将被重新定义,生产力的飞跃可能超越所有现有经济模型的预测。

不安在于:指数增长的本质,就是它永远比你预期的来得更快。

而这一次,加速的不是某个具体产品,是智能本身。Dario 也承认:世界尚未准备好。

从棋盘的第 40 格回望,第 39 格的景象已足够震撼。

但第 40 格之后,人类科技没有退路。

棋盘的后半场,智人已无回头路。

参考资料
https://www.tmtbreakout.com/p/tmtb-dario-amodei-anthropic-ceo-at


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/24217

(0)
上一篇 2026年3月4日 下午8:39
下一篇 2026年3月5日 上午10:47

相关推荐

  • 何恺明团队颠覆生成模型范式:漂移模型实现单步推理,告别迭代训练

    训练生成模型是一项复杂的任务。 从底层逻辑看,生成模型是一个逐步拟合的过程。与常见的判别模型不同,判别模型关注将单个样本映射到对应标签,而生成模型则关注从一个分布映射到另一个分布。 以大家熟悉的扩散模型为例,扩散模型及其基于流的对应方法,通常通过微分方程(随机微分方程 SDE 或常微分方程 ODE)来刻画从噪声到数据的映射。然而,训练扩散模型耗时费力,其核心…

    2026年2月8日
    29600
  • 高通进军AI推理芯片市场:挑战英伟达霸权的移动技术新路径

    在人工智能芯片领域,英伟达长期占据主导地位,其GPU在训练和推理市场均形成近乎垄断的格局。然而,这种局面正面临来自多方的挑战。高通作为移动通信和计算领域的巨头,近日宣布将于明年推出AI200芯片,并计划在2027年跟进AI250芯片,正式进军AI推理芯片市场。这一战略举措不仅反映了高通自身业务拓展的雄心,更揭示了AI芯片市场格局可能发生的深刻变化。 高通此次…

    2025年10月28日
    29500
  • LimiX:以2M参数颠覆表格数据建模,清华团队破解深度学习结构化瓶颈

    在人工智能的浪潮中,大语言模型(LLM)凭借其在文本生成、代码编写和多模态推理方面的卓越表现,已成为通用智能的代名词。然而,当我们把目光投向现实世界的关键系统——电网调度、用户画像、通信日志等,这些领域的核心数据往往以结构化表格的形式存在。令人意外的是,在这个看似“简单”的领域,包括LLM在内的现代深度学习模型却频频失手,其性能在多数真实场景下仍难以超越XG…

    2025年11月13日
    33500
  • 黄仁勋街头力挺OpenAI:英伟达将投史上最大融资,千亿美元合作未停滞

    闻乐 发自 凹非寺 “完全胡说八道!” 都在传英伟达和OpenAI的千亿美元世纪大单谈崩了、黄仁勋私下吐槽奥特曼无能、烧钱无度,不少人猜测这对AI圈的黄金搭档要闹掰。 结果才过不到24小时,黄仁勋就直接强势回应:No Sense! 老黄街头接受采访时不仅打破传闻,还大方表态:我非常欣赏奥特曼。 总之,他的意思是英伟达肯定要投OpenAI最新一轮融资,而且这笔…

    2026年2月1日
    38300
  • 深度解析Depth Anything 3:单Transformer统一3D视觉任务,字节跳动如何重塑几何感知新范式

    在计算机视觉领域,3D重建与几何感知一直是核心挑战之一。传统方法往往需要针对不同任务设计专用模型,如单目深度估计、多视角重建、相机姿态估计等,这不仅增加了开发复杂度,也限制了模型的泛化能力与数据利用效率。近日,字节跳动Seed团队的Depth Anything 3(DA3)研究成果,以单一Transformer架构统一了多种3D视觉任务,在视觉几何基准上取得…

    2025年11月18日
    29600