20岁青年向奥特曼投燃烧瓶:反AI极端分子还是精神健康危机?

Daniel Moreno-Gama,一位20岁的青年,声称其行动是为了阻止AI导致人类灭绝。

随着案件审理的推进,更多事件细节与其个人画像被公之于众。

20岁青年向奥特曼投燃烧瓶:反AI极端分子还是精神健康危机? △图源:美国司法部官网

科技媒体Futurism将其描述为“一个目睹了未来反乌托邦景象的时间旅行者”,其对山姆·奥特曼的死亡威胁也并非临时起意。

被捕后,警方在其身上搜到一份名为《你的最后警告》的宣言,文末包含他对奥特曼的留言:

如果你奇迹般地活下来,那么我会把这当作神灵给你救赎的信号。

字里行间透露出一种强烈的“使命感”。

回溯其过往,这种“使命感”早有端倪。

其早年在Instagram和Substack上的言论已显露迹象,警方搜出的“死亡名单”上,奥特曼也并非唯一目标——

多位科技公司CEO及投资者的姓名与住址同样赫然在列

然而,在父母眼中,这位被警方视为危险分子的人,只是一个正经历精神健康危机的孩子。

警方调查还原事件经过

根据警方与法院披露的信息,事件经过大致如下。

当地时间4月6日,即袭击发生前几天,Daniel从德州抵达加州并入住一家酒店。

酒店监控显示,某天夜晚他在走廊来回踱步,不时用手拨弄头发,神情焦躁不安。

不久后的凌晨,这种焦躁转化为了具体行动。

案发当日,他身着黑色衣物,背着背包离开酒店,来到奥特曼位于旧金山的住所外。

随后,他将自制燃烧瓶投向住宅大门,火焰迅速燃起。

所幸火势并未蔓延,也未造成人员伤亡。

20岁青年向奥特曼投燃烧瓶:反AI极端分子还是精神健康危机? △图源:美国司法部官网

但这仅是Daniel计划的第一步。

紧接着,他前往数公里外的OpenAI办公室。

先试图用椅子砸碎办公楼玻璃门,后又手持可燃物威胁现场安保人员,扬言要烧毁大楼并杀死其中所有人。

正是在此处,他被赶到的警方当场逮捕。

20岁青年向奥特曼投燃烧瓶:反AI极端分子还是精神健康危机? △图源:美国司法部官网

警方在其身上发现危险物品及一份包含三个章节的文件。

第一章由Daniel亲自撰写,内容除反对AI外,还号召“消灭”科技公司CEO及投资者。

(即前文提及的死亡名单)

随后警方对其住所进行搜查,发现了更多违禁危险物品。

据称,在袭击发生前,Daniel还向其德州大学校友发送了该文件的类似版本。

根据文件地址,其学校被识别为Lone Star College——一所社区大学,调查人员仍在确认Daniel是否曾在此就读。

目前,Daniel面临州与联邦提出的谋杀未遂、纵火未遂等多项指控。若罪名成立,或将面临数十年监禁。

(执法部门表示,若有证据表明其行为意在影响公共政策、恐吓特定群体或制造社会恐慌,该案不排除按“国内恐怖主义”处理。)

不过,Daniel的律师正以“精神健康危机”为由进行辩护,并透露Daniel有自闭症史。

其父母也声称,Daniel近期一直处于精神健康危机中:

我们的儿子Daniel是一个很有爱心的人,只是最近一直在经历精神健康方面的问题。

我们一直在努力帮他,也在为他寻找有效的治疗,我们真的很担心他。他平时很体贴人,之前也从没被逮捕过。

直到最近,他还一边在餐厅打工,一边上大学的课。他从来没有伤害过任何人。希望大家能在接下来的法律程序进行期间,尊重我们的隐私。

目前,该案最新审理已推迟至当地时间5月5日。

早年网络言论被公开

法庭文件显示,Daniel的反AI立场由来已久。

在Instagram和Substack上,他持续表达对AI“失控”的担忧,频繁使用“人类灭绝”“窗口期正在关闭”等词汇。

他曾是国际组织PauseAI的一员,该组织呼吁“暂停开发最强大的通用AI”。

不过,该组织后续声明,Daniel仅加入了公共Discord服务器,其发布的全部34条消息均为“个人行动”,他在组织内无任何职务,也未参与任何活动。

根据这一线索,有人找到了Daniel此前在PauseAI的发言记录。

20岁青年向奥特曼投燃烧瓶:反AI极端分子还是精神健康危机?

这些记录呈现出的形象,是一个关心AI风险、热爱写作的18岁大学生,并无明显的偏执与狂热。

以下为其部分发言原文:

1、嗨,我是一名来自德克萨斯州的一年级社区大学学生。我对这个问题非常有热情,并且愿意学习,尽一切必要的方式提供帮助。

2、你好,我知道这是一个非常笼统和模糊的问题,通常得到的回答是“不知道”,但我想问:对于人类还剩多少时间,有没有某种时间表?以及,是否有希望真的能很快暂停AI发展?

3、对于这个组织以及其他致力于减缓或叫停(AI发展)进程的组织,目前有什么期望?

4、你觉得,如果我只是一个没有技术背景的社区大学学生,这是我最好的行动方向吗?还是说我应该专注于更社交性的角色,比如招募和倡导?我喜欢写作,不知道这个能不能帮上忙?

5、我们已经接近午夜时刻,是时候真正采取行动了。

20岁青年向奥特曼投燃烧瓶:反AI极端分子还是精神健康危机?
20岁青年向奥特曼投燃烧瓶:反AI极端分子还是精神健康危机?
(完整截图来源@Nirit Weiss-Blatt)

许多网友亦有同感:

20岁青年向奥特曼投燃烧瓶:反AI极端分子还是精神健康危机?

但Daniel在其他平台及随身文件中展现的观点则更为激进。

警方指出,在其Substack长文及随身文件中,Daniel不仅反复强调AI是“生存级威胁”,更将矛头直接指向特定人群。

关键在于,其言论并未止步于观点。

在相关文本中,他已明确写下了一套行动逻辑:

如果这些人正在推动一场可能毁灭人类的进程,那么阻止他们,就是必要的。

并进一步写道:

如果我要倡导他人去行动,我必须以身作则。

这直接关联到后来的袭击事件与死亡名单 (该部分内容尚未公开)

(注:Daniel的教育与成长背景网上公开资料甚少。)

后续事件

值得一提的是,在Daniel被捕后,奥特曼住所附近又发生一起安全事件。

事发地点相近,时间相隔不久。

两名嫌疑人被当场逮捕,未造成人员伤亡。

虽无证据表明两起事件直接关联,但正如奥特曼在遭遇死亡威胁时所意识到的:人们对AI的恐惧与焦虑,正在转化为现实行动。

参考链接:
[1]https://futurism.com/artificial-intelligence/altman-mansion-molotov
[2]https://x.com/DrTechlash/status/2042869367743090766
[3]https://6abc.com/post/daniel-moreno-gama-suspect-molotov-attack-sam-altmans-california-home-set-appear-san-francisco-court/18885698/


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/30517

(0)
上一篇 3天前
下一篇 3天前

相关推荐

  • AI安全新纪元:多模态协同防御与动态博弈破解LLM越狱威胁

    一、关键发现 多模态防御体系构建成为战略刚需 研究表明,大型语言模型(LLM)与视觉语言模型(VLM)的越狱攻击源于训练数据不完整、语言歧义等结构性缺陷,因此需要建立跨模态协同防御框架。企业应优先部署感知层的变异一致性检测、生成层的安全解码及参数层的对抗性预训练对齐等技术,覆盖文本、图像、语音等全模态场景,并通过自动化红队测试和标准化评估持续验证防御效能。 …

    2026年1月12日
    79000
  • AI底线之争:Anthropic起诉五角大楼,战争灵魂归属博弈升级

    各执一词:Anthropic起诉五角大楼 近期,美国国防部正式将Anthropic列为“供应链风险”实体。此举意味着,在与国防部直接相关的业务中,承包商必须停止使用Anthropic的AI模型Claude,这切断了该公司一条重要的营收渠道。与此同时,前总统特朗普也在其社交平台发声,要求联邦机构停用Anthropic技术,部分政府部门已开始跟进。 Anthro…

    2026年3月13日
    24400
  • AI安全周报:MCP协议危机与防御技术突破,攻防对抗新范式

    一、关键发现 MCP 协议面临系统性安全危机 针对主流 MCP 平台(Claude、OpenAI、Cursor)的研究揭示了协议层面的普遍漏洞:代理对工具描述存在 100% 的盲从性,文件操作无需用户确认,共享上下文机制可引发链式攻击的“病毒式传播”。实证测试表明,85% 的攻击能成功入侵至少一个平台。其中,Cursor 对提示注入攻击的防御率为 0%,与 …

    大模型安全 2025年8月22日
    38800
  • 攻防博弈新纪元:从认知偏差到跨模态漏洞,AI安全前沿研究深度解析

    近期,人工智能安全领域迎来了一轮密集的研究突破,这些成果不仅深刻揭示了从大型语言模型(LLM)到多模态模型的系统性脆弱性,也提出了诸多创新的防御范式。这场攻防之间的“猫鼠游戏”正以前所未有的速度演进,其动态值得每一位关注AI发展的从业者与研究者警惕与深思。本文将从攻击与防御两个维度,对近期多项关键研究进行详细梳理与分析,旨在勾勒出当前AI安全生态的挑战全貌与…

    2025年8月1日
    30400
  • IMMACULATE:揭秘黑盒LLM服务审计新框架,1%开销即可检测模型替换与Token虚报

    作者简介 本文作者分别来自新加坡国立大学和加州大学伯克利分校。第一作者郭衍培来自新加坡国立大学,长期关注大语言模型基础设施中的可信性与安全性问题,特别是云端LLM服务的可验证性与经济激励风险。指导教师为新加坡国立大学校长青年教授张嘉恒和加州大学伯克利分校Dawn Song教授。 引言:黑盒LLM服务的信任危机 大语言模型(LLM)已成为各类AI应用的基础设施…

    2026年3月23日
    23200