AI社区陷入热议。
近日,X平台用户Chaofan Shou发文称,Claude Code的源代码通过其npm注册表中的一个映射文件意外泄露。
该消息迅速传播,引发大量关注。众多开发者随即跟进,开始分析泄露的源码。

根据分析,此次泄露源于Anthropic在发布npm包时,不慎将source map文件一同打包进了生产版本。
泄露的核心是一个约57MB的cli.js.map文件,其中包含了4756个源文件的完整内容:1906个为Claude Code自身的TypeScript/TSX源码,其余2850个来自node_modules依赖。
提取方式极为简单。cli.js.map本质上是一个JSON文件,核心包含两个一一对应的数组:
* sources:文件路径列表
* sourcesContent:对应的完整源代码
这意味着无需反编译或反混淆,即可通过简单脚本批量还原原始代码。
从还原的代码中可以清晰看到Claude Code的整体架构:
* CLI界面基于React + Ink构建
* 核心是一个支持自然语言输入和Slash命令的REPL循环
* 底层通过一套工具系统与大模型API交互
包括架构设计、系统提示词、工具调用逻辑等关键实现细节均暴露在外。


目前,在GitHub、Hacker News和Reddit等社区,开发者们正在仔细研究这份代码,并发现了多个Anthropic未曾公开的内部细节。
卧底模式
当系统检测到使用者是Anthropic内部员工,且正在操作公开的GitHub仓库时,此模式会自动激活。其作用是抹除所有AI生成代码的痕迹和归属信息,并在系统提示词中明确要求大模型“不要暴露你的身份”。值得注意的是,代码中未提供强制关闭该功能的开关。
“Buddy System”电子宠物彩蛋
代码中隐藏了一个名为Buddy的系统,包含18种不同的虚拟宠物(包括鸭子、龙以及Anthropic内部偏好的水豚等)。这些宠物设有“1%掉落率”的稀有度设定、可装扮的帽子以及五维属性(调试能力、耐心、混沌值、智慧、毒舌)。为防止被内部防泄露扫描器发现,开发者还特意使用String.fromCharCode()对宠物名字字符串进行了混淆。
KAIROS后台守护机制
泄露的代码揭示了Anthropic的下一步规划:让Agent实现永久在线。代码中包含一个被功能标志隐藏的模块,代号KAIROS。这是一个自动化的后台守护进程。一旦激活,Agent便具备后台会话能力,可直接订阅GitHub的Webhook(例如,可在出现新报错时自动开始修复)。此外,它还包含一个名为“dream”的内存整理机制,用于在空闲时压缩和巩固长期记忆。
神秘的“Capybara”模型
泄露的代码注释中多次提及一个未发布的模型代号“Capybara”(近期亦有内部文档泄露称其正式名为Claude Mythos,是定位在Opus之上的新一代强大模型)。代码中包含了capybara-fast版本的信息,以及开发者针对该模型“产生幻觉”时的内部调试记录。
情绪监控
代码底层的遥测系统显示,系统会专门追踪用户是否在终端中对Claude使用粗口,以及连续输入continue(通常因模型输出中断导致)的频率,以评估开发者的“挫败感”。
事发后,Anthropic已意识到问题并移除了source map文件;同时,GitHub上用于提取源码的仓库也遭到了DMCA下架。但由于早期的npm包已被缓存和镜像,源码已在社区广泛传播,难以彻底回收。
有网友指出,这已是Anthropic第二次犯类似错误。早在2025年2月就曾发生过一次泄露,当时Anthropic紧急下架修复,此次又在同一环节出现问题。
目前,GitHub上已出现多个完整的镜像仓库,源码被整理得井井有条,可供直接研究或复刻。

短时间内,其中一个Claude Code“克隆”项目的GitHub星标数已突破12k,复刻数超过18k。

对于此次泄露,有人调侃道:“这是有史以来最棒的生日礼物。”

此次事件使得这家明星AI公司的重要产品细节公之于众。对于业界而言,许多设计思路与实践方案获得了公开的参考。

如今,行业顶尖AI公司的“最佳实践”直接呈现在所有人面前。如何进行上下文压缩?如何管理智能体长期记忆?如何安全调度MCP协议?这些以往带有一定机密性的技术,现在有了一本公开的参考手册。
或许不久之后,各家公司的Agent产品将迎来一波重大更新。
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/28067


