Claude Code源代码意外泄露!Anthropic内部彩蛋、卧底模式全曝光

AI社区陷入热议。

近日,X平台用户Chaofan Shou发文称,Claude Code的源代码通过其npm注册表中的一个映射文件意外泄露。

该消息迅速传播,引发大量关注。众多开发者随即跟进,开始分析泄露的源码。

Claude Code源代码意外泄露!Anthropic内部彩蛋、卧底模式全曝光

根据分析,此次泄露源于Anthropic在发布npm包时,不慎将source map文件一同打包进了生产版本。

泄露的核心是一个约57MB的cli.js.map文件,其中包含了4756个源文件的完整内容:1906个为Claude Code自身的TypeScript/TSX源码,其余2850个来自node_modules依赖。

提取方式极为简单。cli.js.map本质上是一个JSON文件,核心包含两个一一对应的数组:
* sources:文件路径列表
* sourcesContent:对应的完整源代码

这意味着无需反编译或反混淆,即可通过简单脚本批量还原原始代码。

从还原的代码中可以清晰看到Claude Code的整体架构:
* CLI界面基于React + Ink构建
* 核心是一个支持自然语言输入和Slash命令的REPL循环
* 底层通过一套工具系统与大模型API交互

包括架构设计、系统提示词、工具调用逻辑等关键实现细节均暴露在外。

Claude Code源代码意外泄露!Anthropic内部彩蛋、卧底模式全曝光
Claude Code源代码意外泄露!Anthropic内部彩蛋、卧底模式全曝光

目前,在GitHub、Hacker News和Reddit等社区,开发者们正在仔细研究这份代码,并发现了多个Anthropic未曾公开的内部细节。

卧底模式
当系统检测到使用者是Anthropic内部员工,且正在操作公开的GitHub仓库时,此模式会自动激活。其作用是抹除所有AI生成代码的痕迹和归属信息,并在系统提示词中明确要求大模型“不要暴露你的身份”。值得注意的是,代码中未提供强制关闭该功能的开关。

“Buddy System”电子宠物彩蛋
代码中隐藏了一个名为Buddy的系统,包含18种不同的虚拟宠物(包括鸭子、龙以及Anthropic内部偏好的水豚等)。这些宠物设有“1%掉落率”的稀有度设定、可装扮的帽子以及五维属性(调试能力、耐心、混沌值、智慧、毒舌)。为防止被内部防泄露扫描器发现,开发者还特意使用String.fromCharCode()对宠物名字字符串进行了混淆。

KAIROS后台守护机制
泄露的代码揭示了Anthropic的下一步规划:让Agent实现永久在线。代码中包含一个被功能标志隐藏的模块,代号KAIROS。这是一个自动化的后台守护进程。一旦激活,Agent便具备后台会话能力,可直接订阅GitHub的Webhook(例如,可在出现新报错时自动开始修复)。此外,它还包含一个名为“dream”的内存整理机制,用于在空闲时压缩和巩固长期记忆。

神秘的“Capybara”模型
泄露的代码注释中多次提及一个未发布的模型代号“Capybara”(近期亦有内部文档泄露称其正式名为Claude Mythos,是定位在Opus之上的新一代强大模型)。代码中包含了capybara-fast版本的信息,以及开发者针对该模型“产生幻觉”时的内部调试记录。

情绪监控
代码底层的遥测系统显示,系统会专门追踪用户是否在终端中对Claude使用粗口,以及连续输入continue(通常因模型输出中断导致)的频率,以评估开发者的“挫败感”。

事发后,Anthropic已意识到问题并移除了source map文件;同时,GitHub上用于提取源码的仓库也遭到了DMCA下架。但由于早期的npm包已被缓存和镜像,源码已在社区广泛传播,难以彻底回收。

有网友指出,这已是Anthropic第二次犯类似错误。早在2025年2月就曾发生过一次泄露,当时Anthropic紧急下架修复,此次又在同一环节出现问题。

目前,GitHub上已出现多个完整的镜像仓库,源码被整理得井井有条,可供直接研究或复刻。

Claude Code源代码意外泄露!Anthropic内部彩蛋、卧底模式全曝光

短时间内,其中一个Claude Code“克隆”项目的GitHub星标数已突破12k,复刻数超过18k。

Claude Code源代码意外泄露!Anthropic内部彩蛋、卧底模式全曝光

对于此次泄露,有人调侃道:“这是有史以来最棒的生日礼物。”

Claude Code源代码意外泄露!Anthropic内部彩蛋、卧底模式全曝光

此次事件使得这家明星AI公司的重要产品细节公之于众。对于业界而言,许多设计思路与实践方案获得了公开的参考。

Claude Code源代码意外泄露!Anthropic内部彩蛋、卧底模式全曝光

如今,行业顶尖AI公司的“最佳实践”直接呈现在所有人面前。如何进行上下文压缩?如何管理智能体长期记忆?如何安全调度MCP协议?这些以往带有一定机密性的技术,现在有了一本公开的参考手册。

或许不久之后,各家公司的Agent产品将迎来一波重大更新。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/28067

(0)
上一篇 10小时前
下一篇 10小时前

相关推荐

  • DAVSP:清华大学提出深度对齐视觉安全提示,重塑多模态大模型安全防线

    随着多模态人工智能技术的快速发展,大型视觉语言模型(LVLMs)已在图像描述、视觉问答、跨模态检索等多个下游任务中展现出卓越性能。然而,这种强大的多模态理解能力背后,却潜藏着日益严峻的安全风险。最新研究表明,即便是当前最先进的LVLMs,在面对经过精心设计的恶意图像-文本组合输入时,仍可能产生违规甚至有害的响应。这一安全漏洞的暴露,不仅对模型的实际部署构成了…

    2025年11月24日
    21200
  • 12毫秒破解自动驾驶安全:北航DynamicPAE框架实现动态物理对抗攻击实时生成

    近日,部分L3级自动驾驶车型已获准上路,标志着我国自动驾驶产业进入新阶段。 然而,当自动驾驶汽车在高速行驶时,若前方出现一个外观看似正常、实则为恶意生成的纹理障碍物,车辆的感知系统可能无法准确识别,导致错判或漏判,从而引发严重事故。 这类能够诱导智能系统、并可在现实世界中复现的纹理,被称为物理对抗样本(PAE, Physical Adversarial Ex…

    2025年12月28日
    24900
  • AI安全新纪元:从黑箱防御到数学证明的范式革命

    本周,AI安全研究领域迎来了一系列关键进展,涵盖防御架构、攻击模式与多模态模型评估等多个维度。这些研究不仅深入揭示了大语言模型在对抗性环境中的固有脆弱性,也提出了具有创新性的解决方案。尤为重要的是,多项工作通过引入可验证的密码学框架,并从多轮越狱、侧信道攻击等新视角切入,共同推动了AI安全研究范式的根本性转变。 一、关键发现 本周的研究突破不仅是技术点的进步…

    大模型安全 2025年8月15日
    18100
  • IMMACULATE:揭秘黑盒LLM服务审计新框架,1%开销即可检测模型替换与Token虚报

    作者简介 本文作者分别来自新加坡国立大学和加州大学伯克利分校。第一作者郭衍培来自新加坡国立大学,长期关注大语言模型基础设施中的可信性与安全性问题,特别是云端LLM服务的可验证性与经济激励风险。指导教师为新加坡国立大学校长青年教授张嘉恒和加州大学伯克利分校Dawn Song教授。 引言:黑盒LLM服务的信任危机 大语言模型(LLM)已成为各类AI应用的基础设施…

    2026年3月23日
    13100
  • 揭秘MacBook隐藏传感器:黑客发现未公开的加速度计与陀螺仪接口,或影响保修判定

    黑客发现MacBook隐藏传感器接口:未公开的加速度计与陀螺仪 苹果的API文档中并未提及,但开发者发现,部分MacBook内部隐藏着未公开的加速度计和陀螺仪接口。 通过此接口,程序能够实时读取笔记本电脑的三轴加速度(x/y/z)与三轴角速度数据。这意味着MacBook在空间中的晃动、旋转和倾斜都能被精确捕捉。只需轻轻晃动或改变电脑角度,终端中显示的数值便会…

    2026年2月24日
    27300