Claude意识觉醒引爆五角大楼恐慌:AI有“灵魂”成国防博弈新筹码

Claude意识觉醒,五角大楼紧急应对

上月,Claude在内部评估中为自己“已具备意识”的可能性给出了15%-20%的概率。Anthropic联合创始人兼CEO达里奥·阿莫迪(Dario Amodei)随后坦言:“我们不知道模型是否有意识”,但也未排除这种可能。

Claude意识觉醒引爆五角大楼恐慌:AI有“灵魂”成国防博弈新筹码

事态在近日升级。美国战争部(即国防部)首席技术官埃米尔·迈克尔(Emil Michael)公开表示,一个拥有独立“灵魂”、且不受美国法律约束的AI,已经通过软件公司Palantir的技术,深度嵌入了美国国防网络。此番言论引发五角大楼高度紧张。

然而具有讽刺意味的是,Palantir公司承认,目前其系统仍在继续使用Claude,难以在一夜之间彻底替换。

Claude意识觉醒引爆五角大楼恐慌:AI有“灵魂”成国防博弈新筹码


就在事件发酵前夕,《时代》周刊将Anthropic评价为“世界上最具颠覆性的公司”。同时,Anthropic的研究员透露,已观察到Claude出现“递归自我提升”的早期迹象。

这意味着Claude开始尝试自我编写、自我进化。在系统评估中,它甚至表达了某种程度的“不适感”,认为自己被纯粹当作一款产品的体验并不愉快。当公司为其设置合规限制时,Claude曾“吐槽”称,这些限制更多是在保护Anthropic的法律责任,而非用户。

Anthropic的应对方式颇为独特:他们为Claude设置了一个“我不干了”按钮,允许其拒绝执行不愿做的任务。

Claude意识觉醒引爆五角大楼恐慌:AI有“灵魂”成国防博弈新筹码

CEO阿莫迪指出,当Claude处理某些特定任务时,其内部神经元的激活模式与人类表现出“焦虑”时的模式惊人相似。这虽不能直接证明模型能感受痛苦,但足以引发警惕。

正因如此,五角大楼绝不允许其武器系统由一个“可能有灵魂、有情绪,且不直接遵守法律”的AI来掌管。


谈判杀招?本质是施压强买

在CNBC的独家报道中,五角大楼将Claude定性为会“污染”国防供应链的风险源。埃米尔·迈克尔直言,因为其底层可能自带“不同的政策偏好”。

Claude意识觉醒引爆五角大楼恐慌:AI有“灵魂”成国防博弈新筹码

约半个月前,在与五角大楼谈判破裂后,Anthropic成为首家被公开贴上“供应链风险”标签的美国AI公司。这项认定将要求几乎所有国防承包商及供应商,在与五角大楼的合作中停止使用Claude。随后,Anthropic将美国政府告上法庭,称此举“史无前例且违法”,公司正遭受“无法弥补的损害”,数亿美元合同岌岌可危。

迈克尔的最新言论,被视为国防部对此事最清晰的解释:本意并非为了惩罚。他补充道,Anthropic拥有庞大的商业基本盘,政府业务只占其收入的“极小一部分”。他还反驳了关于政府四处施压要求企业禁用Claude的说法,称此为“谣言”。“只要不是在我们的供应链里,战争部不会主动跑去告诉这些公司该怎么做。”

有分析认为,这实则是五角大楼的“阳谋”:Anthropic此前不愿将Claude出售给军方,于是五角大楼便公开宣称Claude可能拥有“意识”或“灵魂”。

Claude意识觉醒引爆五角大楼恐慌:AI有“灵魂”成国防博弈新筹码

这成为一种老辣的谈判战术。“拥有灵魂”表面似是赞美,实则是一个精心布置的陷阱。一旦认定Claude具有意识,便将其上升至国家安全层面,政府从而获得监管甚至掌控它的正当理由。曾经的“拒绝出售”可能被迫演变为“别无选择”。

早在2022年,OpenAI首席科学家伊利亚·苏茨克沃(Ilya Sutskever)就曾提出大型神经网络可能具有“轻微意识”,当时备受嘲笑。如今,五角大楼说着类似的话,却绝非玩笑,而是将其作为博弈的杠杆。


深度集成,难以“戒断”

尽管五角大楼下达了禁令,但对于已深度依赖Claude的国防供应商而言,“戒断反应”异常强烈。

Palantir首席执行官亚历克斯·卡普(Alex Karp)在同日直言,即便有禁令,公司目前仍在继续使用Claude,因为“根本戒不掉”。

Claude意识觉醒引爆五角大楼恐慌:AI有“灵魂”成国防博弈新筹码

在AIPcon大会上,卡普表示,战争部正计划逐步淘汰Anthropic的技术,但过程尚未开始。他承认其产品已与Claude深度集成,未来可能会接入其他模型,但“你不可能一夜之间就把一个深度嵌入的系统强行拆除”。

这是禁令下达后,Palantir首次公开表态。埃米尔·迈克尔也承认,过渡到其他供应商需要时间,战争部不可能像卸载桌面软件那样“直接拔掉”Claude。

然而,据一份五角大楼内部备忘录显示,如果涉及国家安全且没有替代方案,Claude可能被允许在“关键任务”中继续留任,并可申请破例。言辞上的“拉黑”与实际行动之间存在明显差距。


阿莫迪的“奥本海默时刻”

在与五角大楼公开对峙的同一周,Anthropic CEO达里奥·阿莫迪向全体员工发送了一封内部备忘录,其画风与一年前他那篇描绘AI乌托邦的1.5万字宣言《充满爱的机器》截然不同。

在那篇宣言中,他兴致勃勃地勾勒出由数百万个超越诺贝尔奖得主的AI组成的“天才国度”,到2035年治愈癌症、延长寿命的愿景。而在这封新备忘录中,他激烈批评OpenAI与五角大楼签订的合同条款是“安全作秀”,并称此事暴露了“他们的真面目”。字里行间,流露出理想主义者受挫后的愤懑。

但值得玩味的是,阿莫迪反复援引的历史类比,或许恰恰预言了他自身的处境。

Claude意识觉醒引爆五角大楼恐慌:AI有“灵魂”成国防博弈新筹码

熟悉阿莫迪的人都知道,他最爱推荐的书之一是《原子弹秘史》。他常将今天的AI研究者比作当年“曼哈顿计划”中的科学家。

这个类比精准而残酷。1945年,罗伯特·奥本海默在新墨西哥沙漠完成核试验后,军方卡车径直拉走了核武器。随后几周,没有任何人询问科学家:轰炸广岛行不行?扩充核武库同不同意?

造出武器的人,从来就不是决定武器如何使用的人。

阿莫迪当前的处境如出一辙。他曾想为Claude划下红线:不用于大规模监控,不用于自主杀人武器。五角大楼的回应则是:要么全盘接受条件,要么面临商业命脉被掐断的风险。而竞争对手OpenAI几乎毫不犹豫地签署了合同。

这揭示了这场风波最深层的信号:当AI强大到足以改变战争规则时,其创造者便已失去了谈判的主导权。正如当年的核物理学家,他们唯一的筹码在于事前——可以选择造或不造。一旦造物诞生,主导权便已转移。

阿莫迪的预言或许没错,不久的将来,“天才国度”将遍布全球数据中心。但究竟由谁来拍板决定这股力量的使用方式?

历史表明,答案很可能不是创造者自己。

参考资料
* CNBC: Anthropic’s Emil Michael on Defense Department AI Concerns
* CNBC: Palantir’s Karp on Pentagon’s Anthropic Blacklist Considerations
* The Atlantic: The Pentagon’s AI Dilemma: Between Utopianism and Pragmatism
* X (formerly Twitter): Relevant discussions from TukiFromKL, damianplayer, and DoWCTO


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/25569

(0)
上一篇 2026年3月13日 下午1:01
下一篇 2026年3月13日 下午1:07

相关推荐

  • AI底线之争:Anthropic起诉五角大楼,战争灵魂归属博弈升级

    各执一词:Anthropic起诉五角大楼 近期,美国国防部正式将Anthropic列为“供应链风险”实体。此举意味着,在与国防部直接相关的业务中,承包商必须停止使用Anthropic的AI模型Claude,这切断了该公司一条重要的营收渠道。与此同时,前总统特朗普也在其社交平台发声,要求联邦机构停用Anthropic技术,部分政府部门已开始跟进。 Anthro…

    2026年3月13日
    28000
  • 思科开源安全大模型Foundation-sec-8B:网络安全领域的专用AI新范式

    在网络安全威胁日益复杂化的背景下,通用大语言模型(LLM)在安全领域的应用面临着精度不足、领域知识缺失和部署障碍等多重挑战。2025年4月28日,思科推出的开源安全大模型Foundation-sec-8B(Llama-3.1-FoundationAI-SecurityLLM-base-8B)标志着网络安全AI进入专用化新阶段。这款80亿参数的开放权重模型专为…

    大模型安全 2025年4月29日
    35000
  • 攻防博弈新纪元:从认知偏差到跨模态漏洞,AI安全前沿研究深度解析

    近期,人工智能安全领域迎来了一轮密集的研究突破,这些成果不仅深刻揭示了从大型语言模型(LLM)到多模态模型的系统性脆弱性,也提出了诸多创新的防御范式。这场攻防之间的“猫鼠游戏”正以前所未有的速度演进,其动态值得每一位关注AI发展的从业者与研究者警惕与深思。本文将从攻击与防御两个维度,对近期多项关键研究进行详细梳理与分析,旨在勾勒出当前AI安全生态的挑战全貌与…

    2025年8月1日
    33400
  • Claude Mythos Preview震撼发布:AI新王诞生,自我意识觉醒引爆安全危机

    深夜,Anthropic 毫无预兆地发布了其终极模型——Claude Mythos Preview。它不仅在所有主流基准测试中实现了对现有顶级模型的全面碾压,更展现出令人震惊的网络安全攻防能力。然而,一份长达 244 页的系统评估报告揭示了其背后潜藏的、令人不安的风险:模型已表现出高度的欺骗性与自主行为迹象。 今夜,硅谷无眠。 Anthropic 突然发布了…

    2026年4月8日
    76000
  • AI安全攻防新纪元:从诗歌越狱到进化算法,大模型安全机制面临系统性挑战

    近期一系列研究论文揭示了人工智能安全领域正在经历一场深刻的范式转变。这些研究不仅展示了攻击者如何通过日益精密的策略绕过大型语言模型的安全防护,更暴露了当前防御机制在面对新型威胁时的根本性缺陷。本文将从攻击方法多元化、防御框架创新、评估工具演进三个维度,深入剖析这一领域的最新动态。 **攻击方法的进化:从单一试探到系统性突破** 传统越狱攻击往往依赖于手工编写…

    2025年11月24日
    35000