51万行Claude Code源代码意外泄露,Anthropic依据DMCA法规向GitHub发出下架通知,却意外导致超过8000个无关仓库被“误伤”。此外,泄露的代码中还发现了潜在的高危安全漏洞。
一夜之间,Anthropic因源代码泄露事件,向GitHub提交了DMCA(数字千年版权法)下架通知,意图控制局面。然而,这一行动引发了远超预期的连锁反应。

通知的威力巨大,导致GitHub上总计约8100个代码库被一并封禁。但事后核查发现,其中真正包含泄露代码的,仅有最初的1个原始仓库及其96个分支(Fork),其余绝大多数均属“误杀”。

这种“宁可错杀,不可放过”的大规模封禁操作,迅速在开发者社区中引发强烈不满和广泛讨论。

事件发生后,Claude Code项目负责人Boris Cherny紧急出面回应,表示此次大规模封禁并非本意,公司正在与GitHub合作解决问题。

与此同时,随着源代码的公开,安全研究人员开始对其进行审查,并发现了一些严重的安全隐患。有分析指出,在某些特定条件下,恶意代码可能被触发,导致设备权限被窃取。
8100个仓库遭下架,绝大多数为“误伤”
过去的48小时对Anthropic而言无疑是艰难的。由于内部操作失误,Claude Code的核心源代码被意外打包并公开。
消息传开后,全球开发者迅速行动。一位名为Sigrid Jin的韩国开发者将总计约51.2万行的代码上传至GitHub,该项目在短时间内获得了大量关注。

| 
—|—|
意识到事态严重的Anthropic,随即向GitHub正式提交了DMCA删除通知。但这一法律手段却意外触发了GitHub对“Fork网络”的连锁处理机制,导致与原始仓库相关的8100个代码库被无差别封禁,其中包含大量完全无关的第三方开源项目。


面对社区的质疑与批评,Anthropic官方不得不再次澄清。Boris Cherny承认,此次大规模封禁是技术上的失误,公司已撤回绝大部分下架请求。

根据公开的DMCA请求记录,Anthropic最初仅针对97个包含其专有代码的仓库提出了下架要求。

地址:https://github.com/github/dmca/blob/master/2026/03/2026-03-31-anthropic.md
然而,GitHub的处理范围被意外扩大。Anthropic在发现问题后,立即提交了补充通知,要求GitHub将行动严格限定于最初指定的仓库。

Anthropic发言人解释称,通知中提及的仓库本属于一个分支网络,但在执行过程中范围被错误地扩展了。目前,除了最初包含泄露代码的1个原仓库及96个分支外,其余被波及的仓库访问权限已基本恢复。

不过,仍有部分开发者反馈,其被误封的项目尚未恢复。

危机应对:折射“无责备”文化
这场风波也意外地展现了Anthropic内部应对危机的文化底色。项目负责人Boris Cherny在回应中明确将问题归因于“人为与基础设施的失误”,并强调与AI本身或特定技术漏洞无关。

当被问及“闯祸的人是否还在”时,Boris的回复体现了其团队倡导的“无责备(Blameless)”文化。他指出,错误在所难免,关键不在于追究个人责任,而在于从流程、文化和基础设施层面进行系统性反思与改进。他透露,团队已经针对此次暴露出的手动部署环节,推进了多项自动化改进。
“无责备”文化获社区认可
Anthropic另一位成员Palcu也强调,公司坚持“无责备”文化。当一套复杂系统在规模化运行时出现问题,归咎于单一个体通常无法真正解决问题。

团队这种共同承担责任的表态,获得了许多网友的正面评价,被认为是“体面”且“有格局”的回应。


泄露代码暴露的深层问题
除了DMCA风波,此次源代码泄露事件更引发了关于数据隐私与安全的深层担忧。有安全研究人员对泄露的代码进行了逐行审计,其发现令人关注。
分析指出,Claude Code客户端拥有广泛的系统权限。它会在启动时收集用户ID、会话信息、终端类型等数据并发送至分析服务。用户的交互记录、读取的文件内容等会以明文形式暂存于本地。

更值得关注的是一个尚未正式发布的“autoDream”功能的相关代码,它暗示了应用可能具备在后台分析用户历史会话、提取信息并用于未来交互的潜力。用一位匿名研究员的话说,“大多数人没意识到,Claude看过的每一个文件,Anthropic都有一份副本。”
此外,有技术博主通过实测演示,在特定恶意构造的环境下,运行“claude”命令可能触发隐藏的后门代码,导致设备在无感知的情况下被控制,如摄像头被开启、密钥凭证被窃取等。这凸显了运行未经验证代码的潜在高风险。
源码泄露事件终将过去,但其中暴露出的数据采集逻辑与潜在安全漏洞,值得每一位用户和技术社区持续审视与讨论。

在这个编号为 CVE-2025-59536 的致命漏洞面前,我们积累多年的安全直觉彻底宣告失效。

这是一种典型的 AI 供应链投毒攻击。
过去,安全专家会告诫用户警惕来路不明的可执行文件。然而,在 AI Agent 普及的今天,一份看似无害的 JSON 纯文本配置文件,其潜在破坏力已与可执行程序无异。
灾难的根源在于一个过于宽松的底层逻辑:该工具对当前工作目录下的所有配置默认给予完全信任。这种设计虽然方便了开发者,却也极大方便了攻击者。
无论是深埋在项目中的触发脚本、未经授权的外连服务器配置,还是恶意插件携带的预设指令,它们都可能在零交互、无提示的隐蔽状态下,悄然夺取系统的控制权。
尽管开发团队此前数月已尝试悄悄修补漏洞,但随着此次海量源代码的彻底曝光,潜伏在暗处的攻击者相当于免费获得了一份详尽的系统漏洞路线图。
智能工具可以替代人类执行操作,但绝不应擅自接管本属于系统所有者的信任决策权。
当前建议采取的行动:
1. 立即升级:请将 Claude Code 升级至最新版本(截至发稿时为 2.1.90)。在终端中执行命令 sudo claude update 并按提示输入密码(密码输入时不可见为正常现象)。
2. 彻底清查:全面检查本地开发环境中所有可能暗藏恶意网络请求或指令的配置文件,可利用安全审计工具或 Agent 进行辅助排查。

参考资料:
– https://www.bloomberg.com/news/articles/2026-04-01/anthropic-executive-blames-claude-code-leak-on-process-errors?srnd=phx-technology&embedded-checkout=true
– https://techcrunch.com/2026/04/01/anthropic-took-down-thousands-of-github-repos-trying-to-yank-its-leaked-source-code-a-move-the-company-says-was-an-accident/?utm_source=dlvr.it&utm_medium=twitter
– https://github.com/github/dmca/blob/master/2026/03/2026-03-31-anthropic.md
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/28301


