Claude Code源码大规模泄露:近两千份文件意外公开,GitHub仓库两小时获五万星

Claude Code源码大规模泄露:近两千份文件意外公开,GitHub仓库两小时获五万星

Claude Code 源码被泄露。近两千份文件、超过五十万行 TypeScript 代码,全部暴露在公开网络上。这是迄今为止 AI 头部公司中规模最大的源码意外公开事件之一。率先发现并公开披露这一「漏洞」的,是开发者 Chaofan Shou(寿超璠)。

Claude Code源码大规模泄露:近两千份文件意外公开,GitHub仓库两小时获五万星

开发者 @realsigridjin 动作极快,第一时间将泄露的源码备份至 GitHub,仓库名为 instructkr/claude-code,标注为「Claude Code Snapshot for Research」。仓库上线仅两小时,stars 数量便突破五万,创下 GitHub 有史以来最快达成这一里程碑的纪录。

事情起因于 Anthropic 在一次 Claude Code 版本发布中,误将 source map 调试文件一并打包并发布到公开的软件包仓库。该 source map 文件暴露了原始源码归档的位置,外界随后可据此访问 Anthropic 云端存储中的源码压缩包并下载。

Anthropic 官方随后回应,此次事件属于「打包环节的人为失误」,并非安全入侵,没有任何用户数据或凭证遭到泄露。Claude Code 之父 Boris Cherny 也在 X 上简短留言,确认这只是「开发者的操作失误」。

Claude Code源码大规模泄露:近两千份文件意外公开,GitHub仓库两小时获五万星

消息发酵后,马斯克也来凑了个热闹,转发网友调侃 Anthropic 现在比 OpenAI 更开放的帖子,并留下一句「太绝了😂」。

Claude Code源码大规模泄露:近两千份文件意外公开,GitHub仓库两小时获五万星

值得一提的是,发现这次泄露的 Chaofan Shou,是一位履历相当亮眼的华人安全研究员,GitHub 用户名为 shouc,X 账号为 @shoucccc。

Claude Code源码大规模泄露:近两千份文件意外公开,GitHub仓库两小时获五万星

据其 LinkedIn 资料,2019 年他进入加州大学圣塔芭拉分校攻读计算机科学本科,仅用约 2 年时间便完成全部学业,以满绩点 4.0 提前毕业。学历一栏的备注只有两个字:「too easy」。

Claude Code源码大规模泄露:近两千份文件意外公开,GitHub仓库两小时获五万星

有网友算了一笔账,这相当于每学期都维持高考冲刺强度,连续三年每门课都拿最高分。本科毕业后,他进入加州大学伯克利分校攻读计算机科学博士,师从程序分析领域知名教授 Koushik Sen,后来选择退学创业。LinkedIn 上的备注同样简洁:「dropped out lol(退学了,哈哈)」。他早年在 Salesforce 担任安全工程师,负责静态代码分析工具和数据管道的开发,之后加入 Veridise 主导智能合约自动化测试工具的研发。

Claude Code源码大规模泄露:近两千份文件意外公开,GitHub仓库两小时获五万星

2023 年,他联合创办了 Web3 安全与高频交易公司 Fuzzland 并担任 CTO,该公司后被 Solayer 收购,他随之出任 Solayer 全职软件工程师,职位描述一栏写的是「full-time larping on twitter(全职在推特上演戏)」。简单来说,他是在调侃自己成天在 Twitter 上发帖刷存在感,自嘲自己不干正事。Fuzzland 协助追回了超过 3000 万美元的被盗链上资产,目前保护和管理的资产规模超过 50 亿美元。他在 GitHub 上的代表项目 ityfuzz 是一个面向智能合约的快照模糊测试工具,累计已获超过 1100 个 Star。

Claude Code源码大规模泄露:近两千份文件意外公开,GitHub仓库两小时获五万星

学术层面,他的 Google Scholar 页面显示总引用量达 224 次,h-index 为 6,i10-index 为 4,论文发表于 CCS、ISSTA、CoNext 等顶级学术会议,研究方向涵盖智能合约模糊测试、Web 安全与分布式系统。漏洞赏金领域,他从 2016 年便已活跃其中。披露过的漏洞覆盖 Twitter、Etherscan、Devin.ai、Google Nest 等知名平台,涉及账户劫持、系统接管、用户行为泄露等多类高危问题,累计获得漏洞赏金约 190 万美元。

Claude Code源码大规模泄露:近两千份文件意外公开,GitHub仓库两小时获五万星

过去一年,他在 GitHub 上仍保持着 1159 次提交的活跃节奏。此人的身份在社交媒体上引发广泛讨论后,有网友在评论区留言:「是寿超璠嘛,这是我高中学弟阿。」

Claude Code源码大规模泄露:近两千份文件意外公开,GitHub仓库两小时获五万星

公开资料也似乎印证了这一线索:他曾就读上海平和双语学校,曾入选中国计算机学会(CCF)高校宣传员名单。

Claude Code源码大规模泄露:近两千份文件意外公开,GitHub仓库两小时获五万星

网络上,甚至流传着他手绘辅助图解 AMC10 题目的教学材料。当然,也不排除存在同名同姓的可能。

Claude Code源码大规模泄露:近两千份文件意外公开,GitHub仓库两小时获五万星

有趣的是,Anthropic 把自己包装成最在乎安全的 AI 公司,而拆穿这层包装的人,是一个在 GitHub 上自称「senior script kiddie」的华人程序员。「script kiddie」在黑客文化里是专门用来嘲笑技术门外汉的词,指那些不懂原理、只会照搬工具的人,将这段话贴在自己主页最显眼的位置,本意无疑只是调侃。但正是这样一个人或许是职业习惯使然,在一次随手的技术检查中,让 Anthropic 的五十万行源代码出现在了所有人面前。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/28343

(0)
上一篇 5小时前
下一篇 2025年12月9日 下午1:00

相关推荐

  • OpenAI、Anthropic、DeepMind罕见联手,得出一个关于AI安全的惊人结论:现有LLM安全防御不堪一击

    本文实测 12 种防御方法,几乎全军覆没。 真是罕见,OpenAI、Anthropic、Google DeepMind 这三大竞争对手,居然联手发表了一篇论文,共同研究语言模型的安全防御评估。 看来在 LLM 安全这事上,大家还是能暂时放下对抗,握手合作的。 本文主要围绕一个问题展开:我们该如何评估语言模型防御机制的鲁棒性? 要知道,目前针对越狱和提示注入的…

    2025年10月14日
    33501
  • PromptLocate:大模型安全防御的精准手术刀——首个能定位并清除提示注入攻击的工具深度解析

    在人工智能技术迅猛发展的今天,大模型的安全性问题日益凸显,其中提示注入攻击已成为威胁模型可靠性的核心挑战之一。近日,杜克大学与宾州州立大学联合研究团队推出的PromptLocate工具,标志着大模型安全防御迈入了精准定位与主动修复的新阶段。该工具不仅能检测数据污染,更能精准定位恶意内容的具体位置,实现数据净化和攻击溯源,为大模型的安全部署与应用提供了关键技术…

    2025年10月24日
    21100
  • Heretic工具深度解析:突破语言模型安全限制的技术革命与伦理挑战

    在人工智能快速发展的今天,语言模型的安全对齐机制已成为行业标准配置。然而,这种旨在防止生成有害内容的安全机制,在实际应用中却引发了新的争议。许多开发者发现,当前主流商业模型如GPT-5等,在涉及特定话题时表现出过度保守的倾向,频繁触发安全拒绝机制,这在研究、创作等正当场景中造成了显著障碍。 从小说创作需要描述必要的情节冲突,到网络安全研究需要分析潜在漏洞;从…

    2025年11月17日
    23900
  • DAVSP:清华大学提出深度对齐视觉安全提示,重塑多模态大模型安全防线

    随着多模态人工智能技术的快速发展,大型视觉语言模型(LVLMs)已在图像描述、视觉问答、跨模态检索等多个下游任务中展现出卓越性能。然而,这种强大的多模态理解能力背后,却潜藏着日益严峻的安全风险。最新研究表明,即便是当前最先进的LVLMs,在面对经过精心设计的恶意图像-文本组合输入时,仍可能产生违规甚至有害的响应。这一安全漏洞的暴露,不仅对模型的实际部署构成了…

    2025年11月24日
    21800
  • Anthropic突破性技术:参数隔离实现AI危险能力精准移除,无需数据过滤

    近年来,大语言模型的能力突飞猛进,但随之而来的却是愈发棘手的双重用途风险。当模型在海量公开互联网数据中学习时,它不仅掌握语言与推理能力,也不可避免地接触到 CBRN(化学、生物、放射、核)危险制造、软件漏洞利用等高敏感度、潜在危险的知识领域。 为此,研究者通常会在后训练阶段加入拒答机制等安全措施,希望阻断这些能力的滥用。然而事实证明,面对刻意规避的攻击者,这…

    2025年12月20日
    21400