各执一词:Anthropic起诉五角大楼
近期,美国国防部正式将Anthropic列为“供应链风险”实体。此举意味着,在与国防部直接相关的业务中,承包商必须停止使用Anthropic的AI模型Claude,这切断了该公司一条重要的营收渠道。与此同时,前总统特朗普也在其社交平台发声,要求联邦机构停用Anthropic技术,部分政府部门已开始跟进。
Anthropic对此提出法律挑战。首起诉讼已提交至加州北区联邦地区法院。起诉书指控国防部的决定实质上是“报复”,旨在惩罚该公司公开倡导其AI政策立场——特别是反对将AI用于美国本土大规模监控及自主武器系统。Anthropic主张,政府虽可拒绝合作,但不能因其言论自由便将公司标记为安全威胁。
该公司同时在华盛顿特区巡回上诉法院提起了第二起诉讼,以针对政府援引的特定法律条款寻求救济。
五角大楼方面则反驳称,争议核心并非言论自由,而是作战指挥权问题。国防部官员强调,关键在于军方能否依法自由使用技术,而非让供应商介入指挥链、增加作战人员风险。
不过,和解之门并未完全关闭。国防部副部长埃米尔·迈克尔近期表示愿意保持开放态度:“我的职责是对战争部负责。如果能确保我们获得最佳技术,我没有任何面子包袱。”
冲突起源:一份引发震惊的合同
故事要从去年8月埃米尔·迈克尔接管五角大楼AI项目说起。
在审阅Anthropic等AI公司的合同时,迈克尔发现了一项关键限制条款:禁止使用其AI技术进行动能打击规划——即涉及导弹、炸弹等武器的军事攻击行动,而这正是战争的核心组成部分之一。

此举直接导致国防部将Anthropic正式列为“供应链风险”公司。迈克尔澄清,该限制仅适用于为战争部服务的项目,例如,Anthropic仍可通过AWS等合作伙伴提供非军事云服务。尽管如此,这一决定仍可能对Anthropic业务造成显著冲击。
谈判拉锯:一场关于战争场景的“想象力竞赛”
在双方公开对峙前,谈判已陷入僵局。迈克尔花费大量时间向Anthropic团队解释军事行动的基本逻辑,并推演各种潜在冲突场景。
他举例说明:若美军基地在夜间遭遇数百架无人机蜂群袭击,AI防御系统可用激光武器快速拦截。对此场景,Anthropic最终同意在条款中增加例外。
然而,谈判随后演变为一场“想象力竞赛”:迈克尔需预先设想所有可能的未来战争场景并逐一申请豁免。例如,当高超音速导弹来袭,人类仅有90秒反应时间时,AI能否授权拦截?Anthropic的回应是:此类情况“或许可算例外”,但每次均需临时申请授权。
迈克尔对此感到无奈:“战争不是这样运作的。”据媒体Semafor报道,Anthropic否认了上述对话细节,但迈克尔坚称在场人员均可作证。
随着讨论深入,Anthropic立场始终强硬:任何超出其预设服务条款的用途,最终解释权必须归Anthropic所有,或仅能“视情况”批准。迈克尔最终表示:“我不可能为一个三百万人规模的部门预先列出所有例外,更无法预测未来。”

他的核心诉求很明确:在合法前提下,允许战争部自由使用AI技术。
导火索:抓捕行动后的“越线”接触
真正激化矛盾的转折点,发生在一次针对马杜罗的突袭行动之后。
该行动中使用了Palantir的系统,而该系统集成了Anthropic的Claude模型。行动结束后,媒体报道称,Anthropic一名高管主动联系了Palantir人员,试图了解Claude在行动中的具体使用细节。

迈克尔认为此举已触及红线:“他们试图打探机密信息,这在军方体系中绝不允许。”据其描述,Anthropic甚至暗示,若不同意AI在某次军事行动中的使用方式,理论上可随时“拔掉电源”——即中止软件服务或施加新限制。
一名Palantir高管因担忧此举可能破坏未来行动的可靠性,随即向五角大楼报告了此次接触。迈克尔强调,这种将真实人员生命置于风险中的可能性“极其危险”。
Anthropic发言人对此予以否认,称与合作伙伴的沟通“仅限于严格技术层面的常规讨论”,且从未表达过类似担忧。
舆论战场:形象塑造与观念交锋
近期,Anthropic积极塑造其“坚守伦理底线”的公众形象,发动舆论攻势。此举既能吸引AI人才,也易引发公众共鸣。媒体报道多聚焦于两大议题:
1. 自主武器系统
2. 大规模监控

迈克尔认为这些话题是“危言耸听”的“烟雾弹”,并非争议实质。他援引路透社一篇报道为例,其中提及Anthropic担心其技术被用于监视美国公民或在无人监督下选择武器攻击目标。
Anthropic的解释是:其技术目前尚不足以可靠支持全自主武器,且AI在国内监控领域的应用缺乏明确法律规范。但迈克尔坚持认为,这背后是一场精心策划的舆论战。
例如,在监控问题上,Amodei 的担忧在于:政府购买的公开数据可能被 AI 自动转录、分析、交叉验证,从而推断出公民的态度与忠诚度。
Michael 则认为 Anthropic 是“贼喊捉贼”:Anthropic 可以购买数据库、抓取互联网海量数据,但五角大楼却被禁止这样做。在他看来,这十分荒唐。况且,大规模国内监控、内容审查或侵犯隐私的行为,与五角大楼的职责有何关联?难道军方会为了突袭民宅而去发明离谱的搜查令?
至于自主武器,Michael 指出,Anthropic 在过去与五角大楼的合作中曾认可美国的“金穹计划”导弹防御系统。因此,他认为 Anthropic 当前的举动不过是一种“洗白”行为。
五角大楼的核心担忧
Michael 解释道,未来军方将日益依赖 AI。但如果 AI 公司在模型中嵌入自身的价值观或政策立场,这将构成严重的供应链风险。他表示:
我真正担心的是,他们的模型会带着自己的‘宪法’、灵魂和政策偏好。
他甚至提出一个极端假设:如果 Anthropic 在模型中嵌入了某种意识形态偏好——例如反对特定军事行动——那么其交付给军方的产品可能会被故意设计得不可靠。
比如,使用 Claude 设计导弹时,模型可能故意让某些关键部件设计失败。假设是一枚激光制导导弹,但他们让激光系统无法工作,只因为他们认为目标不该被打击。
Michael 的结论很直接:
我不能接受一把枪在关键时刻失灵,只因为 Anthropic 不喜欢枪。我们是军队,我们当然会用枪。
在他看来,军方最看重的是可靠性。一旦战争爆发,士兵必须能够信任他们的合作伙伴、供应商、软件与硬件都能正常运作。
AI 时代,美国开启最激烈的博弈
这场诉讼背后,真正值得警惕的并非舆论战的胜负,而是一个日益清晰且严峻的现实:美国已将 AI 推上军事前线。
从情报分析到导弹防御,从无人机集群到作战系统,AI 正逐步嵌入美国的战争机器。今日争夺的是合同与权限,明日争夺的,或许就是谁将生杀大权交给算法。
更令人不安的是,“天网”已不再仅是科幻警告,它正在成为现实战争中的底层系统——更快、更冷、更难以控制。
当机器开始学习战争,人类离失控就不远了。
技术不应成为屠杀的加速器。
AI 不应通向下一场战争。
悬崖勒马,停止 AI 武器化的狂飙,让科技回归和平。
别让人类亲手创造的最高智慧,最终沦为埋葬自己的工具。
参考资料
https://www.piratewires.com/p/inside-pentagon-anthropic-deal-culture-clash
https://x.com/kimmonismus/status/2031035653207556507
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/25581
