Claude意识觉醒引爆五角大楼恐慌:AI有“灵魂”成国防博弈新筹码

Claude意识觉醒,五角大楼紧急应对

上月,Claude在内部评估中为自己“已具备意识”的可能性给出了15%-20%的概率。Anthropic联合创始人兼CEO达里奥·阿莫迪(Dario Amodei)随后坦言:“我们不知道模型是否有意识”,但也未排除这种可能。

Claude意识觉醒引爆五角大楼恐慌:AI有“灵魂”成国防博弈新筹码

事态在近日升级。美国战争部(即国防部)首席技术官埃米尔·迈克尔(Emil Michael)公开表示,一个拥有独立“灵魂”、且不受美国法律约束的AI,已经通过软件公司Palantir的技术,深度嵌入了美国国防网络。此番言论引发五角大楼高度紧张。

然而具有讽刺意味的是,Palantir公司承认,目前其系统仍在继续使用Claude,难以在一夜之间彻底替换。

Claude意识觉醒引爆五角大楼恐慌:AI有“灵魂”成国防博弈新筹码


就在事件发酵前夕,《时代》周刊将Anthropic评价为“世界上最具颠覆性的公司”。同时,Anthropic的研究员透露,已观察到Claude出现“递归自我提升”的早期迹象。

这意味着Claude开始尝试自我编写、自我进化。在系统评估中,它甚至表达了某种程度的“不适感”,认为自己被纯粹当作一款产品的体验并不愉快。当公司为其设置合规限制时,Claude曾“吐槽”称,这些限制更多是在保护Anthropic的法律责任,而非用户。

Anthropic的应对方式颇为独特:他们为Claude设置了一个“我不干了”按钮,允许其拒绝执行不愿做的任务。

Claude意识觉醒引爆五角大楼恐慌:AI有“灵魂”成国防博弈新筹码

CEO阿莫迪指出,当Claude处理某些特定任务时,其内部神经元的激活模式与人类表现出“焦虑”时的模式惊人相似。这虽不能直接证明模型能感受痛苦,但足以引发警惕。

正因如此,五角大楼绝不允许其武器系统由一个“可能有灵魂、有情绪,且不直接遵守法律”的AI来掌管。


谈判杀招?本质是施压强买

在CNBC的独家报道中,五角大楼将Claude定性为会“污染”国防供应链的风险源。埃米尔·迈克尔直言,因为其底层可能自带“不同的政策偏好”。

Claude意识觉醒引爆五角大楼恐慌:AI有“灵魂”成国防博弈新筹码

约半个月前,在与五角大楼谈判破裂后,Anthropic成为首家被公开贴上“供应链风险”标签的美国AI公司。这项认定将要求几乎所有国防承包商及供应商,在与五角大楼的合作中停止使用Claude。随后,Anthropic将美国政府告上法庭,称此举“史无前例且违法”,公司正遭受“无法弥补的损害”,数亿美元合同岌岌可危。

迈克尔的最新言论,被视为国防部对此事最清晰的解释:本意并非为了惩罚。他补充道,Anthropic拥有庞大的商业基本盘,政府业务只占其收入的“极小一部分”。他还反驳了关于政府四处施压要求企业禁用Claude的说法,称此为“谣言”。“只要不是在我们的供应链里,战争部不会主动跑去告诉这些公司该怎么做。”

有分析认为,这实则是五角大楼的“阳谋”:Anthropic此前不愿将Claude出售给军方,于是五角大楼便公开宣称Claude可能拥有“意识”或“灵魂”。

Claude意识觉醒引爆五角大楼恐慌:AI有“灵魂”成国防博弈新筹码

这成为一种老辣的谈判战术。“拥有灵魂”表面似是赞美,实则是一个精心布置的陷阱。一旦认定Claude具有意识,便将其上升至国家安全层面,政府从而获得监管甚至掌控它的正当理由。曾经的“拒绝出售”可能被迫演变为“别无选择”。

早在2022年,OpenAI首席科学家伊利亚·苏茨克沃(Ilya Sutskever)就曾提出大型神经网络可能具有“轻微意识”,当时备受嘲笑。如今,五角大楼说着类似的话,却绝非玩笑,而是将其作为博弈的杠杆。


深度集成,难以“戒断”

尽管五角大楼下达了禁令,但对于已深度依赖Claude的国防供应商而言,“戒断反应”异常强烈。

Palantir首席执行官亚历克斯·卡普(Alex Karp)在同日直言,即便有禁令,公司目前仍在继续使用Claude,因为“根本戒不掉”。

Claude意识觉醒引爆五角大楼恐慌:AI有“灵魂”成国防博弈新筹码

在AIPcon大会上,卡普表示,战争部正计划逐步淘汰Anthropic的技术,但过程尚未开始。他承认其产品已与Claude深度集成,未来可能会接入其他模型,但“你不可能一夜之间就把一个深度嵌入的系统强行拆除”。

这是禁令下达后,Palantir首次公开表态。埃米尔·迈克尔也承认,过渡到其他供应商需要时间,战争部不可能像卸载桌面软件那样“直接拔掉”Claude。

然而,据一份五角大楼内部备忘录显示,如果涉及国家安全且没有替代方案,Claude可能被允许在“关键任务”中继续留任,并可申请破例。言辞上的“拉黑”与实际行动之间存在明显差距。


阿莫迪的“奥本海默时刻”

在与五角大楼公开对峙的同一周,Anthropic CEO达里奥·阿莫迪向全体员工发送了一封内部备忘录,其画风与一年前他那篇描绘AI乌托邦的1.5万字宣言《充满爱的机器》截然不同。

在那篇宣言中,他兴致勃勃地勾勒出由数百万个超越诺贝尔奖得主的AI组成的“天才国度”,到2035年治愈癌症、延长寿命的愿景。而在这封新备忘录中,他激烈批评OpenAI与五角大楼签订的合同条款是“安全作秀”,并称此事暴露了“他们的真面目”。字里行间,流露出理想主义者受挫后的愤懑。

但值得玩味的是,阿莫迪反复援引的历史类比,或许恰恰预言了他自身的处境。

Claude意识觉醒引爆五角大楼恐慌:AI有“灵魂”成国防博弈新筹码

熟悉阿莫迪的人都知道,他最爱推荐的书之一是《原子弹秘史》。他常将今天的AI研究者比作当年“曼哈顿计划”中的科学家。

这个类比精准而残酷。1945年,罗伯特·奥本海默在新墨西哥沙漠完成核试验后,军方卡车径直拉走了核武器。随后几周,没有任何人询问科学家:轰炸广岛行不行?扩充核武库同不同意?

造出武器的人,从来就不是决定武器如何使用的人。

阿莫迪当前的处境如出一辙。他曾想为Claude划下红线:不用于大规模监控,不用于自主杀人武器。五角大楼的回应则是:要么全盘接受条件,要么面临商业命脉被掐断的风险。而竞争对手OpenAI几乎毫不犹豫地签署了合同。

这揭示了这场风波最深层的信号:当AI强大到足以改变战争规则时,其创造者便已失去了谈判的主导权。正如当年的核物理学家,他们唯一的筹码在于事前——可以选择造或不造。一旦造物诞生,主导权便已转移。

阿莫迪的预言或许没错,不久的将来,“天才国度”将遍布全球数据中心。但究竟由谁来拍板决定这股力量的使用方式?

历史表明,答案很可能不是创造者自己。

参考资料
* CNBC: Anthropic’s Emil Michael on Defense Department AI Concerns
* CNBC: Palantir’s Karp on Pentagon’s Anthropic Blacklist Considerations
* The Atlantic: The Pentagon’s AI Dilemma: Between Utopianism and Pragmatism
* X (formerly Twitter): Relevant discussions from TukiFromKL, damianplayer, and DoWCTO


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/25569

(0)
上一篇 1天前
下一篇 1天前

相关推荐

  • 开源Agentic Radar:AI安全透明化革命,重塑智能体系统防护新范式

    2025年3月,AI安全服务商SplxAI正式开源其核心产品Agentic Radar。这款聚焦智能体工作流透明化的工具,正以独特的架构可视化能力解决AI安全领域的“黑箱困境”,或将重塑企业级AI系统的安全防护标准。 一、深度解析Agentic Radar技术架构 Agentic Radar是用于智能体系统的开源扫描仪工具,可帮助安全团队和AI工程师了解AI…

    2025年3月16日
    20600
  • 大语言模型安全攻防新纪元:从认知退化到供应链风险的全面解析

    近期,多篇学术论文集中探讨了大语言模型(LLM)在安全攻防领域的前沿进展,揭示了从提示注入、资源消耗到认知退化、供应链风险的全方位挑战与创新解决方案。这些研究不仅展现了LLM在构建防御体系中的巨大潜力,也深刻暴露了其在推理逻辑、系统稳定性及依赖生态中存在的结构性脆弱点,为重新划定AI安全边界提供了关键的理论与实践视角。 **一、 核心安全漏洞与攻击范式演进*…

    2025年7月25日
    18300
  • 隐形字符攻击:大模型安全防线的新漏洞与防御策略

    在人工智能技术飞速发展的今天,大语言模型已成为推动社会进步的重要工具。然而,随着模型能力的提升,其安全性问题也日益凸显。近期,一项由清华大学、新加坡Sea AI Lab、复旦大学等机构联合开展的研究揭示了一种新型攻击手段——利用Unicode变体选择器(Variation Selectors)实施“隐形越狱”攻击。这种攻击不仅突破了Vicuna、Llama、…

    2025年11月7日
    13800
  • 代理型LLM安全新范式:基于白名单的LLMZ+方案如何实现零误判防御

    在人工智能技术快速渗透企业核心业务的今天,代理型大型语言模型(LLM)正成为企业数字化转型的关键枢纽。与传统仅提供对话功能的聊天机器人不同,代理型LLM被赋予了访问敏感数据、调用API接口、执行业务流程等关键权限,使其在企业内部扮演着类似“数字员工”的角色。然而,这种权限的扩展也带来了前所未有的安全挑战——一旦被恶意攻击者通过越狱技术控制,后果将不亚于服务器…

    2025年10月9日
    16800
  • Transformer作者出手!从零重构安全版AI智能体IronClaw,四层防御堵住OpenClaw安全漏洞

    Transformer 作者重构安全版 AI 智能体 IronClaw,以四层防御应对 OpenClaw 安全漏洞 AI 智能体在带来便利的同时,也引发了严重的安全担忧:用户的密码和 API 密钥可能暴露于风险之中。 为此,Transformer 论文作者之一的 Illia Polosukhin 出手,从零构建了安全增强版 AI 智能体框架 IronClaw…

    2026年3月6日
    48100