Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈

Claude Code 创始人 Boris Cherny 近期在社交平台 X 上公布了过去一个月使用 Claude Code 的真实生产数据,其规模令人惊讶:

在过去 30 天里,我合并了 259 个 PR —— 共 497 次提交,新增约 4 万行代码,删除约 3.8 万行代码。而且,每一行代码都是由 Claude Code + Opus 4.5 编写的。

Claude 可以稳定地持续运行数分钟、数小时,甚至数天(借助 Stop hooks)。

Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈
他断言,软件工程正在发生根本性的变化,我们正进入编程历史的新阶段。这一观点与 OpenAI 前创始人 Andrej Karpathy 的言论不谋而合。Karpathy 此前感叹,随着 Coding Agent 能力增强,一场“9级大地震”正在席卷程序员行业,并坦言自己“从未感觉如此落后”。

Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈
Boris 迅速回应了 Karpathy,表示自己每周都有类似感受。他透露,上个月他作为工程师第一次整整一个月没有打开过 IDE,Opus 4.5 编写了大约 200 个 PR,每一行代码均由 AI 生成。

Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈
两位技术领袖都感受到了 AI 编码强大生产力所带来的冲击。

整整一个月的代码完全由 Claude Opus 4.5 编写

Claude Code 最初只是 Boris 在 2024 年 9 月启动的一个业余项目。他在 X 上写道:

当我在 2024 年 9 月把 Claude Code 作为一个业余项目创建出来时,我完全没有想到它会发展到今天这样的规模。看到 Claude Code 成为如此多工程师的核心开发工具,看到社区所展现出的巨大热情,以及人们将它用于从编程、运维、科研到非技术场景的各种用途,这让我感到既谦卑又震撼。

这项技术既陌生又充满魔力,它极大地降低了人们构建和创造的门槛。越来越多的情况下,代码本身已经不再是瓶颈。

他表示,一年前的 Claude 甚至难以正确生成 Bash 命令,经常出现转义问题,一次只能稳定运行几秒到几分钟。但当时团队已隐约看到它在编程领域变得真正有用的潜力。

根据 Boris 披露的数据,过去 30 天他在多个项目中合并了 259 个 PR,完成 497 次提交,新增约 4 万行代码,删除约 3.8 万行代码。每一行代码都是由运行在 Opus 4.5 上的 Claude Code 生成的

Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈
最值得注意的不仅是产出规模,更是其使用方式。Claude 并非以传统的“短提示—短响应”模式工作,而是借助 stop hooks 连续运行数分钟、数小时甚至数天,能够承担长时间运行的复杂任务。

从使用统计看,他在约 1600 个会话中总共消耗了约 3.25 亿 tokens,最长的单次会话接近 2 天。

这一数据有力地印证了 Boris 的观点:代码已经不再是瓶颈,真正的瓶颈在于执行与方向的判断

有 Reddit 网友评论称,这看起来已不太像产品演示,更像是对“Agent 化编程工作流”在真实生产环境中运行方式的一次提前预览。

评论区变 Claude Code 用户大型提问现场

该帖发布后,评论区反响热烈。一直关注此事的 Karpathy 也转发了这条内容。

许多网友对此感到不可思议,但 Boris 明确确认:过去一个月的每一行代码确实都由 Claude Code 编写。

Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈
评论区随即变成了 Claude Code 用户的大型提问现场。许多网友借此机会反馈在实际使用中遇到的问题。

Datasette 创始人、Django 联合创作者 Simon Willison 首先提问:如何使用 stop hooks 来保证 Claude 持续执行?

Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈
对此,Boris 分享了一个用于拦截 Claude 退出的 Ralph 插件,并附上了 GitHub 链接:
https://github.com/anthropics/claude-plugins-official/tree/main/plugins/ralph-wiggum

Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈
还有不少开发者反映了使用中遇到的问题,例如使用 Sonnet 4.5 时 Claude 会修改用户自己写的代码。

Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈
关于如何管理长期任务中的上下文,Boris 的回答是:进入计划模式。

Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈
针对 Claude Code 终端的闪烁问题,Boris 反馈目前正在逐步推出修复。

Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈
也有开发者担心模型会耍“小聪明”,例如通过做字符串比较来编写测试,使其通过但并未真正满足成功标准。

对此,Boris 回应道:

这个问题在 Sonnet 3.7 时代确实存在过。但随着模型能力的提升,我发现它已经不再这样做了。随着模型不断变强,最困难的反而是持续地重置你对它能力边界的认知。

Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈
此外,Boris 还预告,下一版 Claude Code 将能够支持抑制子 agent 的输出

Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈

代码已经不再是瓶颈

除了提问,评论区更多的是对 Boris 和 Claude Code 的赞扬与感激。

许多网友表达了对 Claude Code 的喜爱,认为它改变了自己的开发体验、职业生涯乃至日常生活。

Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈
有开发者表示,Claude Code 已成为其日常工作中最重要的工具之一,并感谢 Boris 的贡献。

Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈
有细心的网友询问了 Claude Code 的具体诞生时间——2024 年 9 月 14 日。

Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈
许多网友赞同 Boris 的判断:代码已不再是瓶颈。Claude Code 降低了编码门槛,即便非专业人士也可以尝试 Vibe Coding,极大地提升了代码生产力。

Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈 Claude Code之父自曝生产数据:30天259个PR全由AI编写,代码不再是瓶颈
在近期的一期播客中,Boris 描述了自己当前的生活状态:“每天醒来,第一件事就是启动几个 Agent,让它们先帮我把当天要写的代码跑起来。”

他坦言,如果在 6 个月前,他会觉得这很疯狂,但如今这已是他最常用的编码方式。

作为创造者,Boris 对 AI 编码带来的变革感受尤为深刻:

软件工程正在发生根本性的变化,而即便是像我们这样最早的一批使用者和实践者,最难的部分依然是:不断重新调整自己的预期。而这,仍然只是一个开始。

正如 Andrej Karpathy、Boris Cherny 等一线从业者所指出的,程序员行业正站在一次剧烈变革的临界点上。

在即将到来的 2026 年,Coding Agent 可能不再仅是辅助角色,而会逐步成为软件生产流程中的核心组成部分,重新定义个人生产力与工程协作的边界。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/16283

(0)
上一篇 2025年12月29日 下午12:13
下一篇 2025年12月29日 下午12:23

相关推荐

  • 多模型路由时代:从OpenRouter《State of AI》报告看AI使用格局与Agent化趋势

    一、报告背景:OpenRouter 在整个 AI 版图中的位置 1.1 OpenRouter 是谁?这份报告在看什么? OpenRouter 本质上是一个 多模型路由层(Model Router / Gateway) : 对上 :开发者、应用只需要对接一个 API; 对下 :OpenRouter 接入了 300+ 模型、60+ 提供方 ,覆盖了主流闭源(Op…

    2025年12月12日
    55900
  • 开源压缩工具caveman-compression:如何通过语言优化将大模型API成本降低40%以上

    随着大模型API的广泛应用,开发者面临日益增长的token成本压力。每月数千甚至上万元的API账单已成为许多AI项目的沉重负担。在这种背景下,开源项目caveman-compression提供了一种创新的解决方案:通过语言压缩技术,在保持语义完整性的前提下,显著减少token消耗,从而实现成本的大幅降低。 ### 语言压缩的核心原理:利用大模型的补全能力 c…

    2025年11月20日
    37000
  • 阿里ReWatch-R1:让大模型学会“回看”视频推理,基于证据链思考告别幻觉

    为什么“逐步思考”在视频推理中会失效? 在数学推理任务中,让大模型“一步一步思考”通常能显著提升性能。然而,当同样的方法被应用于视频问答时,效果却常常不尽如人意,有时甚至不如让模型“直接回答”。 来自阿里巴巴未来生活实验室的研究团队指出,其根源在于任务性质的根本差异:数学推理是纯文本的逻辑推演,而视频推理要求模型在视觉信息与文本逻辑之间反复穿梭、交叉验证。简…

    2026年1月29日
    49900
  • 国产GPU生死线:从财报看技术内卷下的商业闭环真相

    关键词:国产GPU、CUDA兼容、财务风险、生态依附、内卷竞争 对于深耕于深度学习框架底层、CUDA算子优化与芯片微架构设计一线的开发者而言,评估一家国产GPU公司,往往习惯于紧盯其宣称的算力峰值、显存带宽或对Triton/vLLM等新兴框架的支持度。 然而,商业世界的运行逻辑并非如此。在“百模大战”与Scaling Law主导的算力狂飙时代,纯粹的技术指标…

    2026年4月7日
    50200
  • AI腔调入侵:当人类语言被大模型重塑,我们如何守护交流的真实性?

    近期,OpenAI首席执行官山姆·奥特曼在社交媒体上公开表达了对“AI腔调”(LLM-speak)现象的担忧。他在浏览关于Codex的论坛讨论时,发现大量帖子虽然内容属实,但语言风格高度同质化,充满程序化表达,让人怀疑是AI生成或人类模仿AI的结果。奥特曼指出,这种交流方式让真实的人际互动“感觉很假”,并警示过度依赖和模仿AI可能导致人性特质的流失。这一观察…

    2025年11月3日
    30900