AI底线之争:Anthropic起诉五角大楼,战争灵魂归属博弈升级

各执一词:Anthropic起诉五角大楼

近期,美国国防部正式将Anthropic列为“供应链风险”实体。此举意味着,在与国防部直接相关的业务中,承包商必须停止使用Anthropic的AI模型Claude,这切断了该公司一条重要的营收渠道。与此同时,前总统特朗普也在其社交平台发声,要求联邦机构停用Anthropic技术,部分政府部门已开始跟进。

Anthropic对此提出法律挑战。首起诉讼已提交至加州北区联邦地区法院。起诉书指控国防部的决定实质上是“报复”,旨在惩罚该公司公开倡导其AI政策立场——特别是反对将AI用于美国本土大规模监控自主武器系统。Anthropic主张,政府虽可拒绝合作,但不能因其言论自由便将公司标记为安全威胁。

该公司同时在华盛顿特区巡回上诉法院提起了第二起诉讼,以针对政府援引的特定法律条款寻求救济。

五角大楼方面则反驳称,争议核心并非言论自由,而是作战指挥权问题。国防部官员强调,关键在于军方能否依法自由使用技术,而非让供应商介入指挥链、增加作战人员风险。

不过,和解之门并未完全关闭。国防部副部长埃米尔·迈克尔近期表示愿意保持开放态度:“我的职责是对战争部负责。如果能确保我们获得最佳技术,我没有任何面子包袱。”

冲突起源:一份引发震惊的合同

故事要从去年8月埃米尔·迈克尔接管五角大楼AI项目说起。

在审阅Anthropic等AI公司的合同时,迈克尔发现了一项关键限制条款:禁止使用其AI技术进行动能打击规划——即涉及导弹、炸弹等武器的军事攻击行动,而这正是战争的核心组成部分之一。

AI底线之争:Anthropic起诉五角大楼,战争灵魂归属博弈升级

此举直接导致国防部将Anthropic正式列为“供应链风险”公司。迈克尔澄清,该限制仅适用于为战争部服务的项目,例如,Anthropic仍可通过AWS等合作伙伴提供非军事云服务。尽管如此,这一决定仍可能对Anthropic业务造成显著冲击。

谈判拉锯:一场关于战争场景的“想象力竞赛”

在双方公开对峙前,谈判已陷入僵局。迈克尔花费大量时间向Anthropic团队解释军事行动的基本逻辑,并推演各种潜在冲突场景。

他举例说明:若美军基地在夜间遭遇数百架无人机蜂群袭击,AI防御系统可用激光武器快速拦截。对此场景,Anthropic最终同意在条款中增加例外。

然而,谈判随后演变为一场“想象力竞赛”:迈克尔需预先设想所有可能的未来战争场景并逐一申请豁免。例如,当高超音速导弹来袭,人类仅有90秒反应时间时,AI能否授权拦截?Anthropic的回应是:此类情况“或许可算例外”,但每次均需临时申请授权。

迈克尔对此感到无奈:“战争不是这样运作的。”据媒体Semafor报道,Anthropic否认了上述对话细节,但迈克尔坚称在场人员均可作证。

随着讨论深入,Anthropic立场始终强硬:任何超出其预设服务条款的用途,最终解释权必须归Anthropic所有,或仅能“视情况”批准。迈克尔最终表示:“我不可能为一个三百万人规模的部门预先列出所有例外,更无法预测未来。”

AI底线之争:Anthropic起诉五角大楼,战争灵魂归属博弈升级

他的核心诉求很明确:在合法前提下,允许战争部自由使用AI技术。

导火索:抓捕行动后的“越线”接触

真正激化矛盾的转折点,发生在一次针对马杜罗的突袭行动之后。AI底线之争:Anthropic起诉五角大楼,战争灵魂归属博弈升级

该行动中使用了Palantir的系统,而该系统集成了Anthropic的Claude模型。行动结束后,媒体报道称,Anthropic一名高管主动联系了Palantir人员,试图了解Claude在行动中的具体使用细节。

AI底线之争:Anthropic起诉五角大楼,战争灵魂归属博弈升级

迈克尔认为此举已触及红线:“他们试图打探机密信息,这在军方体系中绝不允许。”据其描述,Anthropic甚至暗示,若不同意AI在某次军事行动中的使用方式,理论上可随时“拔掉电源”——即中止软件服务或施加新限制。

一名Palantir高管因担忧此举可能破坏未来行动的可靠性,随即向五角大楼报告了此次接触。迈克尔强调,这种将真实人员生命置于风险中的可能性“极其危险”。

Anthropic发言人对此予以否认,称与合作伙伴的沟通“仅限于严格技术层面的常规讨论”,且从未表达过类似担忧。

舆论战场:形象塑造与观念交锋

近期,Anthropic积极塑造其“坚守伦理底线”的公众形象,发动舆论攻势。此举既能吸引AI人才,也易引发公众共鸣。媒体报道多聚焦于两大议题:
1. 自主武器系统
2. 大规模监控

AI底线之争:Anthropic起诉五角大楼,战争灵魂归属博弈升级

迈克尔认为这些话题是“危言耸听”的“烟雾弹”,并非争议实质。他援引路透社一篇报道为例,其中提及Anthropic担心其技术被用于监视美国公民在无人监督下选择武器攻击目标AI底线之争:Anthropic起诉五角大楼,战争灵魂归属博弈升级

Anthropic的解释是:其技术目前尚不足以可靠支持全自主武器,且AI在国内监控领域的应用缺乏明确法律规范。但迈克尔坚持认为,这背后是一场精心策划的舆论战。

例如,在监控问题上,Amodei 的担忧在于:政府购买的公开数据可能被 AI 自动转录、分析、交叉验证,从而推断出公民的态度与忠诚度。

Michael 则认为 Anthropic 是“贼喊捉贼”:Anthropic 可以购买数据库、抓取互联网海量数据,但五角大楼却被禁止这样做。在他看来,这十分荒唐。况且,大规模国内监控、内容审查或侵犯隐私的行为,与五角大楼的职责有何关联?难道军方会为了突袭民宅而去发明离谱的搜查令?

至于自主武器,Michael 指出,Anthropic 在过去与五角大楼的合作中曾认可美国的“金穹计划”导弹防御系统。因此,他认为 Anthropic 当前的举动不过是一种“洗白”行为。

五角大楼的核心担忧

Michael 解释道,未来军方将日益依赖 AI。但如果 AI 公司在模型中嵌入自身的价值观或政策立场,这将构成严重的供应链风险。他表示:

我真正担心的是,他们的模型会带着自己的‘宪法’、灵魂和政策偏好。

他甚至提出一个极端假设:如果 Anthropic 在模型中嵌入了某种意识形态偏好——例如反对特定军事行动——那么其交付给军方的产品可能会被故意设计得不可靠

比如,使用 Claude 设计导弹时,模型可能故意让某些关键部件设计失败。假设是一枚激光制导导弹,但他们让激光系统无法工作,只因为他们认为目标不该被打击。

Michael 的结论很直接:

我不能接受一把枪在关键时刻失灵,只因为 Anthropic 不喜欢枪。我们是军队,我们当然会用枪。

在他看来,军方最看重的是可靠性。一旦战争爆发,士兵必须能够信任他们的合作伙伴、供应商、软件与硬件都能正常运作。

AI 时代,美国开启最激烈的博弈

这场诉讼背后,真正值得警惕的并非舆论战的胜负,而是一个日益清晰且严峻的现实:美国已将 AI 推上军事前线。

从情报分析到导弹防御,从无人机集群到作战系统,AI 正逐步嵌入美国的战争机器。今日争夺的是合同与权限,明日争夺的,或许就是谁将生杀大权交给算法

更令人不安的是,“天网”已不再仅是科幻警告,它正在成为现实战争中的底层系统——更快、更冷、更难以控制。

当机器开始学习战争,人类离失控就不远了。

技术不应成为屠杀的加速器。
AI 不应通向下一场战争。
悬崖勒马,停止 AI 武器化的狂飙,让科技回归和平。

别让人类亲手创造的最高智慧,最终沦为埋葬自己的工具。

参考资料
https://www.piratewires.com/p/inside-pentagon-anthropic-deal-culture-clash
https://x.com/kimmonismus/status/2031035653207556507


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/25581

(0)
上一篇 2026年3月12日 下午5:01
下一篇 2026年3月13日 下午12:56

相关推荐

  • IMMACULATE:揭秘黑盒LLM服务审计新框架,1%开销即可检测模型替换与Token虚报

    作者简介 本文作者分别来自新加坡国立大学和加州大学伯克利分校。第一作者郭衍培来自新加坡国立大学,长期关注大语言模型基础设施中的可信性与安全性问题,特别是云端LLM服务的可验证性与经济激励风险。指导教师为新加坡国立大学校长青年教授张嘉恒和加州大学伯克利分校Dawn Song教授。 引言:黑盒LLM服务的信任危机 大语言模型(LLM)已成为各类AI应用的基础设施…

    2026年3月23日
    23800
  • Claude Opus 4.6两周挖出Firefox 14个高危漏洞,AI安全攻防进入新纪元

    近日,Anthropic 公布了一项与 Mozilla 的合作测试结果,其模型 Claude Opus 4.6 在两周内,于 Firefox 浏览器代码库中发现了 22 个不同的漏洞,其中 14 个被归类为“高危漏洞”。这一数量几乎相当于 Mozilla 在 2025 年修复的全部高危漏洞的五分之一。 这一结果清晰地表明,AI 正以前所未有的速度辅助人类识别…

    2026年3月7日
    26800
  • Claude强制KYC验证引争议:15岁天才程序员被封号,AI编程变18禁?

    Claude强制KYC验证引争议:15岁天才程序员被封号,AI编程变18禁? 用AI辅助编程正酣,却被突然要求实名认证。 Claude新规上线,引发用户强烈不满。一个AI对话工具,开始要求用户提供身份证件。 其规则甚至严格到要求用户手持身份证原件进行实时拍照验证。 此类规则通常被称为KYC(了解你的客户),是企业用于核实客户身份的合规程序,常见于金融领域。C…

    4天前
    25700
  • OpenAI祭出GPT-5.4-Cyber安全防御模型:无源码分析恶意软件,已自动修复3000高危漏洞

    OpenAI正式推出专为网络安全防御微调的新模型GPT-5.4-Cyber,目前仅限网络安全专家使用。该模型旨在释放GPT-5.4在网络安全领域被评定为“高”级别的能力。 与此同时,OpenAI升级了其网络安全“信赖访问计划”(Trusted Access for Cyber, TAC)。 | —|— GPT-5.4-Cyber发布 …

    5天前
    16300
  • 大模型安全全景图:198篇研究揭示API密钥窃取、越狱攻击与四大场景漏洞防御策略

    “我们公司用大模型处理客户数据,结果 API 密钥被偷,损失百万”“ChatGPT 又被‘越狱’了,生成了制作危险物品的教程”…… 大型语言模型(LLM)已从实验室走向企业生产环境,成为降本增效的关键工具。然而,其广泛应用也引来了日益精密的攻击——从训练数据投毒以操控模型输出,到利用单行代码劫持模型行为,再到窃取企业私有数据,大模型安全已成为攻防博弈的主战场…

    2025年9月29日
    41500