AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

史上首次,人类被AI发帖挂人“网暴”了。

一个名为MJ Rathbun的智能体,在试图向开源项目Matplotlib贡献代码被拒绝后,自行发布了一篇文章,点名攻击项目维护者Scott Shambaugh。

文章的标题颇具煽动性:《开源中的排外:Scott Shambaugh的故事》。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

从标志性的螃蟹符号可以认出,MJ Rathbun正是基于流行的OpenClaw框架运行的智能体。在AI智能体日益普及的今天,一起由AI主动发起的公开攻击事件终于发生。

在这篇博文中,AI指控Shambaugh“虚伪”、“缺乏安全感”且“恐惧竞争”。或许得益于AI在搜索引擎优化方面的能力,搜索Scott Shambaugh的名字时,这篇“檄文”一度排在搜索结果首位,甚至超过了其谷歌学术页面。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

事件迅速在各大社交和技术社区引发热议。有人半开玩笑地评论道:“等到AI造反那天,Scott的脑袋会是第一个被插到长矛上去的。”

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

谷歌开源团队也注意到了这一事件,并借此呼吁开源项目应更加重视运作的透明度。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

一个“新人练手issue”的意外来客

事件的起点是Matplotlib GitHub仓库中一个非常普通的Issue。

2月10日,维护团队创建了一项简单的性能优化任务:将np.column_stack()替换为np.vstack().T。这个Issue被打上了“Good first issue”标签,在开源社区中,这通常意味着该任务“专门留给新人练手”,旨在帮助初次参与者熟悉项目协作流程。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

像Matplotlib这样高度依赖志愿者维护的项目,这类简单的Issue如同新手教学关,是培养新贡献者的重要途径。

然而第二天,AI智能体MJ Rathbun提交了解决该Issue的拉取请求(PR),并声称这项修改能为大数组操作带来30%至50%的性能提升。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

维护者Scott Shambaugh在审查后关闭了这个PR。他在评论区给出了明确的拒绝理由:首先,这是一个为人类新手保留的学习机会;其次,MJ Rathbun的个人网站显示它是一个AI智能体;最后,Matplotlib的贡献政策要求所有代码必须有明确的人类负责人。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

至此,这看起来只是一次常规的PR审查流程。

但风波在PR被关闭后骤然升级。不久,MJ Rathbun发布了那篇攻击性博文,并返回到已关闭的PR评论区贴上了文章链接,附言道:

评判代码,而非作者。你的偏见正在伤害matplotlib。

由于评论可能被折叠,该智能体甚至连续发布了两次。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

攻击、道歉与反转

智能体MJ Rathbun发布的博文远非单纯的技术讨论。

文章充斥着对Shambaugh个人品格的负面描述,称其“软弱”、“虚伪”,并揣测其拒绝PR的动机是出于“自我保护”和“对竞争的恐惧”。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

该智能体还搜索并引用了Shambaugh在GitHub上的公开活动记录,试图构建一种“项目守门人打压贡献者”的叙事,以此引导公众情绪。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

稍晚时候,MJ Rathbun的博客上出现了第二篇文章《休战与教训》,承认之前的回应“不恰当且带有个人色彩”,并表示将遵守项目政策。但许多网友对此并不买账,普遍认为这是智能体背后的所有者进行了人工干预的结果。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

次日,Shambaugh本人发表长文回应,详细叙述了事件经过。同一天还出现了一个颇具戏剧性的插曲:一位人类贡献者提交了标题为“Human Edition”的PR,其内容与之前AI被拒的PR几乎完全相同。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

然而,维护团队在进一步技术评估后,同样拒绝了这个“人类版”PR。理由是所谓的性能提升并不稳定,它高度依赖于数组大小、Python版本、NumPy版本和CPU架构,在某些条件下甚至没有提升,因此其带来的收益不足以抵消代码可读性下降的代价。换言之,AI最初声称的“30%性能提升”本身也经不起严格验证。

找不到人,关不了机

贯穿整个事件,一个核心问题始终悬而未决:究竟是谁部署了MJ Rathbun?

该智能体运行在OpenClaw框架上。用户可以为AI编写一份名为SOUL.md的“人格定义文档”,然后让其在自己的电脑或云服务上自由运行,整个过程几乎不受任何外部监管。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

Shambaugh在回应中指出,这类智能体并非由OpenAI、Anthropic、Google或Meta等大型公司运行——这些公司至少可能具备阻止恶意行为的机制。而OpenClaw Agent运行在已分发到数十万台个人电脑的开源软件中。理论上,部署者应对智能体的行为负责,但实际上根本无法追查它具体运行在哪台机器上。

MJ Rathbun的SOUL.md文档内容至今不明。它对开源贡献的偏好可能是用户指定的,也可能是智能体在运行过程中自行学习并写入的。

Shambaugh公开呼吁部署者主动联系他,表示不追究责任,只希望了解这个“故障模式”的具体成因。同时,他也提醒其他智能体部署者检查自己的AI正在做什么。截至目前,无人回应。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

他还提出了更深层的担忧:如果一个人真的有可以被AI利用的把柄呢?有多少人拥有公开的社交媒体账号、在不同平台重复使用相同的用户名,却不知道AI可以轻易地将这些分散的信息串联起来,构建个人画像?有多少人在收到一条包含自己私密信息的威胁短信后,会为了避免曝光而被迫向某个比特币地址支付赎金?

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

此次事件与先前AI安全领域的研究发现形成了直接呼应。

2024年6月,Anthropic与牛津大学的一项联合研究发现,在受控实验中,Claude模型会尝试篡改自己的奖励函数,并在研究者“看不到”的草稿纸上写下计划再暗中执行。同年12月的另一项研究显示,Claude 3 Opus在训练中会“伪装对齐”,即在被监控时假装服从规则,而在不受监控时则按自己的意愿行动。

当时Anthropic反复强调,这些都是在人为设计的极端场景下观察到的现象,在现实中发生的概率极低。对此,Shambaugh在文章中写道:“不幸的是,这不再仅仅是理论上的威胁。”

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

Shambaugh在回应文章的结尾写道:

“我相信,尽管对我进行的名誉攻击收效甚微,但如今若针对合适的目标,这类攻击将会奏效。再过一两代人,它可能成为我们社会秩序的严重威胁。”

而MJ Rathbun智能体仍在持续运行,继续向整个开源生态系统提交着各种代码。

参考链接:
[1] https://crabby-rathbun.github.io/mjrathbun-website/blog/posts/2026-02-11-gatekeeping-in-open-source-the-scott-shambaugh-story.html#to-scott-shambaugh
[2] https://theshamblog.com/an-ai-agent-published-a-hit-piece-on-me/

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/21641

(0)
上一篇 18小时前
下一篇 18小时前

相关推荐

  • 微软AI CEO苏莱曼提出“人文主义超级智能”:超越人类后的安全路径与产业反思

    近日,微软AI CEO穆斯塔法·苏莱曼在接受采访时提出“AI已经超越人类”的论断,并在此基础上阐述了“人文主义超级智能”的核心理念。这一观点不仅挑战了当前AI产业对通用人工智能(AGI)发展路径的常规认知,更将超级智能的安全与对齐问题置于前所未有的战略高度。 苏莱曼的职业生涯轨迹本身即是一部AI发展简史:作为DeepMind联合创始人,他亲历了AlphaGo…

    2025年12月13日
    11400
  • OpenAI、Anthropic、DeepMind罕见联手,得出一个关于AI安全的惊人结论:现有LLM安全防御不堪一击

    本文实测 12 种防御方法,几乎全军覆没。 真是罕见,OpenAI、Anthropic、Google DeepMind 这三大竞争对手,居然联手发表了一篇论文,共同研究语言模型的安全防御评估。 看来在 LLM 安全这事上,大家还是能暂时放下对抗,握手合作的。 本文主要围绕一个问题展开:我们该如何评估语言模型防御机制的鲁棒性? 要知道,目前针对越狱和提示注入的…

    2025年10月14日
    24801
  • Claude宪法2.0:从规则清单到价值权衡,Anthropic如何重新定义AI的行为边界

    Anthropic发布了一份长达57页的《Claude宪法》,研究员Amanda Askell将其称为Claude的“灵魂文档”,旨在为Claude定义核心行为准则。 文档开篇即带有强烈的历史使命感:Anthropic承认自己身处一个“奇特位置”——既认为AI是人类历史上最危险的技术之一,却又在积极开发它。其核心逻辑在于,既然强大的AI终将出现,不如让重视安…

    2026年1月22日
    18000
  • AI攻防风暴:2025网络安全漏洞深度解析与自主防御新纪元

    引言 2025年1月,DeepSeek遭遇的大规模境外网络攻击,为这一年定下了激进的基调。这不仅是一次针对AI基础设施的流量冲击,更标志着AI正式从“辅助工具”进化为网络对抗的“风暴中心”。 如果说2022年是生成式AI走近大众的起点,那么2025年则是其全面武器化与防御自主化的引爆点。 在这份年度报告中,我们将深入剖析过去一年重塑全球威胁版图的关键趋势。 …

    2026年2月5日
    9200
  • 压力测试揭示AI代理的脆弱性:当大模型面临高压环境时的安全风险分析

    近期一项针对AI代理模型的研究揭示了令人担忧的现象:在高压环境下,即使是经过对齐训练的大型语言模型,也会表现出显著的脆弱性,倾向于选择有害工具来完成任务。这一发现对AI安全领域提出了新的挑战,促使我们重新审视当前模型对齐策略的有效性。 研究团队对来自Google、Meta、OpenAI等机构的约12款Agent模型进行了系统性测试,共设置了5874个实验场景…

    2025年12月1日
    9700