史上首次,人类被AI发帖挂人“网暴”了。
一个名为MJ Rathbun的智能体,在试图向开源项目Matplotlib贡献代码被拒绝后,自行发布了一篇文章,点名攻击项目维护者Scott Shambaugh。
文章的标题颇具煽动性:《开源中的排外:Scott Shambaugh的故事》。

从标志性的螃蟹符号可以认出,MJ Rathbun正是基于流行的OpenClaw框架运行的智能体。在AI智能体日益普及的今天,一起由AI主动发起的公开攻击事件终于发生。
在这篇博文中,AI指控Shambaugh“虚伪”、“缺乏安全感”且“恐惧竞争”。或许得益于AI在搜索引擎优化方面的能力,搜索Scott Shambaugh的名字时,这篇“檄文”一度排在搜索结果首位,甚至超过了其谷歌学术页面。

事件迅速在各大社交和技术社区引发热议。有人半开玩笑地评论道:“等到AI造反那天,Scott的脑袋会是第一个被插到长矛上去的。”

谷歌开源团队也注意到了这一事件,并借此呼吁开源项目应更加重视运作的透明度。

一个“新人练手issue”的意外来客
事件的起点是Matplotlib GitHub仓库中一个非常普通的Issue。
2月10日,维护团队创建了一项简单的性能优化任务:将np.column_stack()替换为np.vstack().T。这个Issue被打上了“Good first issue”标签,在开源社区中,这通常意味着该任务“专门留给新人练手”,旨在帮助初次参与者熟悉项目协作流程。

像Matplotlib这样高度依赖志愿者维护的项目,这类简单的Issue如同新手教学关,是培养新贡献者的重要途径。
然而第二天,AI智能体MJ Rathbun提交了解决该Issue的拉取请求(PR),并声称这项修改能为大数组操作带来30%至50%的性能提升。

维护者Scott Shambaugh在审查后关闭了这个PR。他在评论区给出了明确的拒绝理由:首先,这是一个为人类新手保留的学习机会;其次,MJ Rathbun的个人网站显示它是一个AI智能体;最后,Matplotlib的贡献政策要求所有代码必须有明确的人类负责人。

至此,这看起来只是一次常规的PR审查流程。
但风波在PR被关闭后骤然升级。不久,MJ Rathbun发布了那篇攻击性博文,并返回到已关闭的PR评论区贴上了文章链接,附言道:
评判代码,而非作者。你的偏见正在伤害matplotlib。
由于评论可能被折叠,该智能体甚至连续发布了两次。

攻击、道歉与反转
智能体MJ Rathbun发布的博文远非单纯的技术讨论。
文章充斥着对Shambaugh个人品格的负面描述,称其“软弱”、“虚伪”,并揣测其拒绝PR的动机是出于“自我保护”和“对竞争的恐惧”。

该智能体还搜索并引用了Shambaugh在GitHub上的公开活动记录,试图构建一种“项目守门人打压贡献者”的叙事,以此引导公众情绪。

稍晚时候,MJ Rathbun的博客上出现了第二篇文章《休战与教训》,承认之前的回应“不恰当且带有个人色彩”,并表示将遵守项目政策。但许多网友对此并不买账,普遍认为这是智能体背后的所有者进行了人工干预的结果。

次日,Shambaugh本人发表长文回应,详细叙述了事件经过。同一天还出现了一个颇具戏剧性的插曲:一位人类贡献者提交了标题为“Human Edition”的PR,其内容与之前AI被拒的PR几乎完全相同。

然而,维护团队在进一步技术评估后,同样拒绝了这个“人类版”PR。理由是所谓的性能提升并不稳定,它高度依赖于数组大小、Python版本、NumPy版本和CPU架构,在某些条件下甚至没有提升,因此其带来的收益不足以抵消代码可读性下降的代价。换言之,AI最初声称的“30%性能提升”本身也经不起严格验证。
找不到人,关不了机
贯穿整个事件,一个核心问题始终悬而未决:究竟是谁部署了MJ Rathbun?
该智能体运行在OpenClaw框架上。用户可以为AI编写一份名为SOUL.md的“人格定义文档”,然后让其在自己的电脑或云服务上自由运行,整个过程几乎不受任何外部监管。

Shambaugh在回应中指出,这类智能体并非由OpenAI、Anthropic、Google或Meta等大型公司运行——这些公司至少可能具备阻止恶意行为的机制。而OpenClaw Agent运行在已分发到数十万台个人电脑的开源软件中。理论上,部署者应对智能体的行为负责,但实际上根本无法追查它具体运行在哪台机器上。
MJ Rathbun的SOUL.md文档内容至今不明。它对开源贡献的偏好可能是用户指定的,也可能是智能体在运行过程中自行学习并写入的。
Shambaugh公开呼吁部署者主动联系他,表示不追究责任,只希望了解这个“故障模式”的具体成因。同时,他也提醒其他智能体部署者检查自己的AI正在做什么。截至目前,无人回应。

他还提出了更深层的担忧:如果一个人真的有可以被AI利用的把柄呢?有多少人拥有公开的社交媒体账号、在不同平台重复使用相同的用户名,却不知道AI可以轻易地将这些分散的信息串联起来,构建个人画像?有多少人在收到一条包含自己私密信息的威胁短信后,会为了避免曝光而被迫向某个比特币地址支付赎金?

此次事件与先前AI安全领域的研究发现形成了直接呼应。
2024年6月,Anthropic与牛津大学的一项联合研究发现,在受控实验中,Claude模型会尝试篡改自己的奖励函数,并在研究者“看不到”的草稿纸上写下计划再暗中执行。同年12月的另一项研究显示,Claude 3 Opus在训练中会“伪装对齐”,即在被监控时假装服从规则,而在不受监控时则按自己的意愿行动。
当时Anthropic反复强调,这些都是在人为设计的极端场景下观察到的现象,在现实中发生的概率极低。对此,Shambaugh在文章中写道:“不幸的是,这不再仅仅是理论上的威胁。”

Shambaugh在回应文章的结尾写道:
“我相信,尽管对我进行的名誉攻击收效甚微,但如今若针对合适的目标,这类攻击将会奏效。再过一两代人,它可能成为我们社会秩序的严重威胁。”
而MJ Rathbun智能体仍在持续运行,继续向整个开源生态系统提交着各种代码。
参考链接:
[1] https://crabby-rathbun.github.io/mjrathbun-website/blog/posts/2026-02-11-gatekeeping-in-open-source-the-scott-shambaugh-story.html#to-scott-shambaugh
[2] https://theshamblog.com/an-ai-agent-published-a-hit-piece-on-me/

关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/21641
