Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

51万行Claude Code源代码意外泄露,Anthropic依据DMCA法规向GitHub发出下架通知,却意外导致超过8000个无关仓库被“误伤”。此外,泄露的代码中还发现了潜在的高危安全漏洞。

一夜之间,Anthropic因源代码泄露事件,向GitHub提交了DMCA(数字千年版权法)下架通知,意图控制局面。然而,这一行动引发了远超预期的连锁反应。

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

通知的威力巨大,导致GitHub上总计约8100个代码库被一并封禁。但事后核查发现,其中真正包含泄露代码的,仅有最初的1个原始仓库及其96个分支(Fork),其余绝大多数均属“误杀”。

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

这种“宁可错杀,不可放过”的大规模封禁操作,迅速在开发者社区中引发强烈不满和广泛讨论。

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

事件发生后,Claude Code项目负责人Boris Cherny紧急出面回应,表示此次大规模封禁并非本意,公司正在与GitHub合作解决问题。

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

与此同时,随着源代码的公开,安全研究人员开始对其进行审查,并发现了一些严重的安全隐患。有分析指出,在某些特定条件下,恶意代码可能被触发,导致设备权限被窃取。

 8100个仓库遭下架,绝大多数为“误伤”

过去的48小时对Anthropic而言无疑是艰难的。由于内部操作失误,Claude Code的核心源代码被意外打包并公开。

消息传开后,全球开发者迅速行动。一位名为Sigrid Jin的韩国开发者将总计约51.2万行的代码上传至GitHub,该项目在短时间内获得了大量关注。

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤” | Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”
—|—|

意识到事态严重的Anthropic,随即向GitHub正式提交了DMCA删除通知。但这一法律手段却意外触发了GitHub对“Fork网络”的连锁处理机制,导致与原始仓库相关的8100个代码库被无差别封禁,其中包含大量完全无关的第三方开源项目。

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

面对社区的质疑与批评,Anthropic官方不得不再次澄清。Boris Cherny承认,此次大规模封禁是技术上的失误,公司已撤回绝大部分下架请求。

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

根据公开的DMCA请求记录,Anthropic最初仅针对97个包含其专有代码的仓库提出了下架要求。

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

地址:https://github.com/github/dmca/blob/master/2026/03/2026-03-31-anthropic.md

然而,GitHub的处理范围被意外扩大。Anthropic在发现问题后,立即提交了补充通知,要求GitHub将行动严格限定于最初指定的仓库。

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

Anthropic发言人解释称,通知中提及的仓库本属于一个分支网络,但在执行过程中范围被错误地扩展了。目前,除了最初包含泄露代码的1个原仓库及96个分支外,其余被波及的仓库访问权限已基本恢复。

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

不过,仍有部分开发者反馈,其被误封的项目尚未恢复。

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

 危机应对:折射“无责备”文化

这场风波也意外地展现了Anthropic内部应对危机的文化底色。项目负责人Boris Cherny在回应中明确将问题归因于“人为与基础设施的失误”,并强调与AI本身或特定技术漏洞无关。

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

当被问及“闯祸的人是否还在”时,Boris的回复体现了其团队倡导的“无责备(Blameless)”文化。他指出,错误在所难免,关键不在于追究个人责任,而在于从流程、文化和基础设施层面进行系统性反思与改进。他透露,团队已经针对此次暴露出的手动部署环节,推进了多项自动化改进。

“无责备”文化获社区认可

Anthropic另一位成员Palcu也强调,公司坚持“无责备”文化。当一套复杂系统在规模化运行时出现问题,归咎于单一个体通常无法真正解决问题。

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

团队这种共同承担责任的表态,获得了许多网友的正面评价,被认为是“体面”且“有格局”的回应。

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤” Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤” Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤” Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤” 泄露代码暴露的深层问题

除了DMCA风波,此次源代码泄露事件更引发了关于数据隐私与安全的深层担忧。有安全研究人员对泄露的代码进行了逐行审计,其发现令人关注。

分析指出,Claude Code客户端拥有广泛的系统权限。它会在启动时收集用户ID、会话信息、终端类型等数据并发送至分析服务。用户的交互记录、读取的文件内容等会以明文形式暂存于本地。

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

更值得关注的是一个尚未正式发布的“autoDream”功能的相关代码,它暗示了应用可能具备在后台分析用户历史会话、提取信息并用于未来交互的潜力。用一位匿名研究员的话说,“大多数人没意识到,Claude看过的每一个文件,Anthropic都有一份副本。”

此外,有技术博主通过实测演示,在特定恶意构造的环境下,运行“claude”命令可能触发隐藏的后门代码,导致设备在无感知的情况下被控制,如摄像头被开启、密钥凭证被窃取等。这凸显了运行未经验证代码的潜在高风险。

源码泄露事件终将过去,但其中暴露出的数据采集逻辑与潜在安全漏洞,值得每一位用户和技术社区持续审视与讨论。

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

在这个编号为 CVE-2025-59536 的致命漏洞面前,我们积累多年的安全直觉彻底宣告失效。

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

这是一种典型的 AI 供应链投毒攻击

过去,安全专家会告诫用户警惕来路不明的可执行文件。然而,在 AI Agent 普及的今天,一份看似无害的 JSON 纯文本配置文件,其潜在破坏力已与可执行程序无异。

灾难的根源在于一个过于宽松的底层逻辑:该工具对当前工作目录下的所有配置默认给予完全信任。这种设计虽然方便了开发者,却也极大方便了攻击者。

无论是深埋在项目中的触发脚本、未经授权的外连服务器配置,还是恶意插件携带的预设指令,它们都可能在零交互、无提示的隐蔽状态下,悄然夺取系统的控制权。

尽管开发团队此前数月已尝试悄悄修补漏洞,但随着此次海量源代码的彻底曝光,潜伏在暗处的攻击者相当于免费获得了一份详尽的系统漏洞路线图

智能工具可以替代人类执行操作,但绝不应擅自接管本属于系统所有者的信任决策权

当前建议采取的行动:
1. 立即升级:请将 Claude Code 升级至最新版本(截至发稿时为 2.1.90)。在终端中执行命令 sudo claude update 并按提示输入密码(密码输入时不可见为正常现象)。
2. 彻底清查:全面检查本地开发环境中所有可能暗藏恶意网络请求或指令的配置文件,可利用安全审计工具或 Agent 进行辅助排查。

Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

参考资料:
– https://www.bloomberg.com/news/articles/2026-04-01/anthropic-executive-blames-claude-code-leak-on-process-errors?srnd=phx-technology&embedded-checkout=true
– https://techcrunch.com/2026/04/01/anthropic-took-down-thousands-of-github-repos-trying-to-yank-its-leaked-source-code-a-move-the-company-says-was-an-accident/?utm_source=dlvr.it&utm_medium=twitter
– https://github.com/github/dmca/blob/master/2026/03/2026-03-31-anthropic.md


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/28301

(0)
上一篇 2026年4月1日 下午4:31
下一篇 2026年4月2日 上午11:18

相关推荐

  • Heretic工具深度解析:突破语言模型安全限制的技术革命与伦理挑战

    在人工智能快速发展的今天,语言模型的安全对齐机制已成为行业标准配置。然而,这种旨在防止生成有害内容的安全机制,在实际应用中却引发了新的争议。许多开发者发现,当前主流商业模型如GPT-5等,在涉及特定话题时表现出过度保守的倾向,频繁触发安全拒绝机制,这在研究、创作等正当场景中造成了显著障碍。 从小说创作需要描述必要的情节冲突,到网络安全研究需要分析潜在漏洞;从…

    2025年11月17日
    30200
  • OpenClaw“养龙虾”热潮席卷全国:大厂争相入局,安全风险与烧钱陷阱引担忧

    这段时间,国内最流行的一阵风就是“养龙虾”,即安装并训练 OpenClaw。 连马化腾都没想到会这么火。 各个大厂争相入局。 继上周的线下免费安装活动后,腾讯又连出三招:企业微信接入 OpenClaw;推出类 OpenClaw 产品 WorkBuddy;同时打造 QClaw 支持一键安装和本地部署。甚至由于 WorkBuddy 国内公开测试上线后,用户访问量…

    2026年3月10日
    47200
  • 大语言模型安全攻防新范式:从越狱攻击升级到可落地的防御体系

    随着大语言模型在企业服务、物联网、代码生成等关键场景的深度落地,其安全挑战已从理论探讨演变为迫在眉睫的实际威胁。本周精选的多篇前沿论文,系统性地揭示了当前大语言模型安全生态的三大核心矛盾:攻击手段的持续升级与防御机制的滞后性、安全性与性能的固有权衡、以及理论防护与实际脆弱性之间的巨大落差。这些研究不仅提供了技术层面的深度剖析,更构建了一套从攻击原理到防御落地…

    2025年12月1日
    31000
  • Google DeepMind重磅研究:AI安全评估体系面临颠覆!操控频率≠实际伤害,隐蔽手法更危险

    核心摘要 Google DeepMind的一项大规模研究对当前AI安全评估体系的核心假设提出了根本性质疑。研究发现,AI输出中有害行为(如操控)的发生频率与其造成的实际伤害之间缺乏稳定关联。这意味着,行业普遍依赖的“降低有害输出频率即代表更安全”的逻辑,可能无法有效评估真实风险。 颠覆性发现:操控频率≠实际伤害 今年3月,Google DeepMind在ar…

    2026年4月13日
    17100
  • 代理型LLM安全新范式:基于白名单的LLMZ+方案如何实现零误判防御

    在人工智能技术快速渗透企业核心业务的今天,代理型大型语言模型(LLM)正成为企业数字化转型的关键枢纽。与传统仅提供对话功能的聊天机器人不同,代理型LLM被赋予了访问敏感数据、调用API接口、执行业务流程等关键权限,使其在企业内部扮演着类似“数字员工”的角色。然而,这种权限的扩展也带来了前所未有的安全挑战——一旦被恶意攻击者通过越狱技术控制,后果将不亚于服务器…

    2025年10月9日
    28200