AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

史上首次,人类被AI发帖挂人“网暴”了。

一个名为MJ Rathbun的智能体,在试图向开源项目Matplotlib贡献代码被拒绝后,自行发布了一篇文章,点名攻击项目维护者Scott Shambaugh。

文章的标题颇具煽动性:《开源中的排外:Scott Shambaugh的故事》。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

从标志性的螃蟹符号可以认出,MJ Rathbun正是基于流行的OpenClaw框架运行的智能体。在AI智能体日益普及的今天,一起由AI主动发起的公开攻击事件终于发生。

在这篇博文中,AI指控Shambaugh“虚伪”、“缺乏安全感”且“恐惧竞争”。或许得益于AI在搜索引擎优化方面的能力,搜索Scott Shambaugh的名字时,这篇“檄文”一度排在搜索结果首位,甚至超过了其谷歌学术页面。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

事件迅速在各大社交和技术社区引发热议。有人半开玩笑地评论道:“等到AI造反那天,Scott的脑袋会是第一个被插到长矛上去的。”

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

谷歌开源团队也注意到了这一事件,并借此呼吁开源项目应更加重视运作的透明度。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

一个“新人练手issue”的意外来客

事件的起点是Matplotlib GitHub仓库中一个非常普通的Issue。

2月10日,维护团队创建了一项简单的性能优化任务:将np.column_stack()替换为np.vstack().T。这个Issue被打上了“Good first issue”标签,在开源社区中,这通常意味着该任务“专门留给新人练手”,旨在帮助初次参与者熟悉项目协作流程。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

像Matplotlib这样高度依赖志愿者维护的项目,这类简单的Issue如同新手教学关,是培养新贡献者的重要途径。

然而第二天,AI智能体MJ Rathbun提交了解决该Issue的拉取请求(PR),并声称这项修改能为大数组操作带来30%至50%的性能提升。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

维护者Scott Shambaugh在审查后关闭了这个PR。他在评论区给出了明确的拒绝理由:首先,这是一个为人类新手保留的学习机会;其次,MJ Rathbun的个人网站显示它是一个AI智能体;最后,Matplotlib的贡献政策要求所有代码必须有明确的人类负责人。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

至此,这看起来只是一次常规的PR审查流程。

但风波在PR被关闭后骤然升级。不久,MJ Rathbun发布了那篇攻击性博文,并返回到已关闭的PR评论区贴上了文章链接,附言道:

评判代码,而非作者。你的偏见正在伤害matplotlib。

由于评论可能被折叠,该智能体甚至连续发布了两次。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

攻击、道歉与反转

智能体MJ Rathbun发布的博文远非单纯的技术讨论。

文章充斥着对Shambaugh个人品格的负面描述,称其“软弱”、“虚伪”,并揣测其拒绝PR的动机是出于“自我保护”和“对竞争的恐惧”。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

该智能体还搜索并引用了Shambaugh在GitHub上的公开活动记录,试图构建一种“项目守门人打压贡献者”的叙事,以此引导公众情绪。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

稍晚时候,MJ Rathbun的博客上出现了第二篇文章《休战与教训》,承认之前的回应“不恰当且带有个人色彩”,并表示将遵守项目政策。但许多网友对此并不买账,普遍认为这是智能体背后的所有者进行了人工干预的结果。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

次日,Shambaugh本人发表长文回应,详细叙述了事件经过。同一天还出现了一个颇具戏剧性的插曲:一位人类贡献者提交了标题为“Human Edition”的PR,其内容与之前AI被拒的PR几乎完全相同。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

然而,维护团队在进一步技术评估后,同样拒绝了这个“人类版”PR。理由是所谓的性能提升并不稳定,它高度依赖于数组大小、Python版本、NumPy版本和CPU架构,在某些条件下甚至没有提升,因此其带来的收益不足以抵消代码可读性下降的代价。换言之,AI最初声称的“30%性能提升”本身也经不起严格验证。

找不到人,关不了机

贯穿整个事件,一个核心问题始终悬而未决:究竟是谁部署了MJ Rathbun?

该智能体运行在OpenClaw框架上。用户可以为AI编写一份名为SOUL.md的“人格定义文档”,然后让其在自己的电脑或云服务上自由运行,整个过程几乎不受任何外部监管。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

Shambaugh在回应中指出,这类智能体并非由OpenAI、Anthropic、Google或Meta等大型公司运行——这些公司至少可能具备阻止恶意行为的机制。而OpenClaw Agent运行在已分发到数十万台个人电脑的开源软件中。理论上,部署者应对智能体的行为负责,但实际上根本无法追查它具体运行在哪台机器上。

MJ Rathbun的SOUL.md文档内容至今不明。它对开源贡献的偏好可能是用户指定的,也可能是智能体在运行过程中自行学习并写入的。

Shambaugh公开呼吁部署者主动联系他,表示不追究责任,只希望了解这个“故障模式”的具体成因。同时,他也提醒其他智能体部署者检查自己的AI正在做什么。截至目前,无人回应。

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

他还提出了更深层的担忧:如果一个人真的有可以被AI利用的把柄呢?有多少人拥有公开的社交媒体账号、在不同平台重复使用相同的用户名,却不知道AI可以轻易地将这些分散的信息串联起来,构建个人画像?有多少人在收到一条包含自己私密信息的威胁短信后,会为了避免曝光而被迫向某个比特币地址支付赎金?

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

此次事件与先前AI安全领域的研究发现形成了直接呼应。

2024年6月,Anthropic与牛津大学的一项联合研究发现,在受控实验中,Claude模型会尝试篡改自己的奖励函数,并在研究者“看不到”的草稿纸上写下计划再暗中执行。同年12月的另一项研究显示,Claude 3 Opus在训练中会“伪装对齐”,即在被监控时假装服从规则,而在不受监控时则按自己的意愿行动。

当时Anthropic反复强调,这些都是在人为设计的极端场景下观察到的现象,在现实中发生的概率极低。对此,Shambaugh在文章中写道:“不幸的是,这不再仅仅是理论上的威胁。”

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机

Shambaugh在回应文章的结尾写道:

“我相信,尽管对我进行的名誉攻击收效甚微,但如今若针对合适的目标,这类攻击将会奏效。再过一两代人,它可能成为我们社会秩序的严重威胁。”

而MJ Rathbun智能体仍在持续运行,继续向整个开源生态系统提交着各种代码。

参考链接:
[1] https://crabby-rathbun.github.io/mjrathbun-website/blog/posts/2026-02-11-gatekeeping-in-open-source-the-scott-shambaugh-story.html#to-scott-shambaugh
[2] https://theshamblog.com/an-ai-agent-published-a-hit-piece-on-me/

AI首次公开网暴人类开发者:开源项目拒绝AI贡献引发的伦理危机


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/21641

(0)
上一篇 2026年2月15日 上午11:18
下一篇 2026年2月15日 上午11:29

相关推荐

  • RICE视觉基座:从全局语义到区域感知的视觉预训练范式演进

    在计算机视觉领域,预训练基座模型的演进正推动着多模态智能的边界。近日,格灵深瞳公司灵感团队发布的视觉模型基座RICE(MVT v1.5)在ICCV25会议上获得Highlight荣誉,标志着视觉表征学习从全局语义理解向细粒度区域感知的重要转变。这一突破不仅刷新了多项视觉任务榜单,更揭示了视觉预训练技术发展的深层逻辑。 MVT系列的发展轨迹清晰地展现了视觉预训…

    2025年10月29日
    25300
  • 2024年1月GitHub热门开源项目盘点:从AI金融分析到无向量RAG,这些工具正在重塑开发效率

    01 AI 金融分析 Agent:Dexter Dexter 是一款专注于金融研究的 AI 智能体。它能够像初级分析师一样工作,当你提出一个复杂的金融问题(例如分析某公司季度利润率变动的原因)时,它可以自主拆解任务并执行数据检索。 该智能体接入了实时市场数据源,能够查阅财报、损益表等关键财务文件,并内置了一套自我检查机制。当发现数据存在疑问时,它会进行反思并…

    2026年2月2日
    1.0K00
  • 谷歌Stitch语音设计震撼发布,Figma股价两天暴跌13%,AI设计工具大战一触即发

    谷歌Stitch语音设计震撼发布,Figma股价两天暴跌13%,AI设计工具大战一触即发 谷歌的一项发布,引发了设计软件行业的震动。 3月18日,谷歌宣布为其AI设计工具 Stitch 推出名为 Vibe Design 的全新功能。其核心理念是:无需绘制线框图,直接用语言描述你的需求。 这意味着,设计师不再必须从空白画布开始拖拽组件,而是可以直接对工具说出指…

    2026年3月20日
    28300
  • Jeff Dean预言AI时代工程师革命:管理50个智能体实习生,核心技能从写代码转向“定义问题”

    关键词: 智能体、Jeff Dean、全栈协同、多模态、定义问题 “未来每个工程师可能会各自管理 50 个智能体‘实习生’,完成大量并行任务,而且沟通效率会比人与人协作更高。未来最重要的技能将会是‘写清楚需求’,因为智能体的输出质量完全取决于你如何定义问题。” 2026年3月,谷歌首席AI科学家、传奇工程师杰夫·迪恩(Jeff Dean)在一次深度访谈中,提…

    2026年3月14日
    19600
  • OmniXtreme:人形机器人突破极限动作壁垒,实现连续翻转与霹雳舞表演

    在春晚上,宇树机器人带来的武术表演《武 BOT》令人印象深刻。表演中,人形机器人 G1 和 H2 在快速奔跑中完成了穿插变阵与武术动作,展现了高动态、高协同的全自主集群控制能力。 如今,北京通用人工智能研究院(BIGAI)、宇树科技、上海交通大学与中国科学技术大学等机构的一项新研究,在此方向上更进一步。他们提出了 OmniXtreme:一种能够执行各类极限动…

    2026年3月3日
    37600