AI底线之争:Anthropic起诉五角大楼,战争灵魂归属博弈升级

各执一词:Anthropic起诉五角大楼

近期,美国国防部正式将Anthropic列为“供应链风险”实体。此举意味着,在与国防部直接相关的业务中,承包商必须停止使用Anthropic的AI模型Claude,这切断了该公司一条重要的营收渠道。与此同时,前总统特朗普也在其社交平台发声,要求联邦机构停用Anthropic技术,部分政府部门已开始跟进。

Anthropic对此提出法律挑战。首起诉讼已提交至加州北区联邦地区法院。起诉书指控国防部的决定实质上是“报复”,旨在惩罚该公司公开倡导其AI政策立场——特别是反对将AI用于美国本土大规模监控自主武器系统。Anthropic主张,政府虽可拒绝合作,但不能因其言论自由便将公司标记为安全威胁。

该公司同时在华盛顿特区巡回上诉法院提起了第二起诉讼,以针对政府援引的特定法律条款寻求救济。

五角大楼方面则反驳称,争议核心并非言论自由,而是作战指挥权问题。国防部官员强调,关键在于军方能否依法自由使用技术,而非让供应商介入指挥链、增加作战人员风险。

不过,和解之门并未完全关闭。国防部副部长埃米尔·迈克尔近期表示愿意保持开放态度:“我的职责是对战争部负责。如果能确保我们获得最佳技术,我没有任何面子包袱。”

冲突起源:一份引发震惊的合同

故事要从去年8月埃米尔·迈克尔接管五角大楼AI项目说起。

在审阅Anthropic等AI公司的合同时,迈克尔发现了一项关键限制条款:禁止使用其AI技术进行动能打击规划——即涉及导弹、炸弹等武器的军事攻击行动,而这正是战争的核心组成部分之一。

AI底线之争:Anthropic起诉五角大楼,战争灵魂归属博弈升级

此举直接导致国防部将Anthropic正式列为“供应链风险”公司。迈克尔澄清,该限制仅适用于为战争部服务的项目,例如,Anthropic仍可通过AWS等合作伙伴提供非军事云服务。尽管如此,这一决定仍可能对Anthropic业务造成显著冲击。

谈判拉锯:一场关于战争场景的“想象力竞赛”

在双方公开对峙前,谈判已陷入僵局。迈克尔花费大量时间向Anthropic团队解释军事行动的基本逻辑,并推演各种潜在冲突场景。

他举例说明:若美军基地在夜间遭遇数百架无人机蜂群袭击,AI防御系统可用激光武器快速拦截。对此场景,Anthropic最终同意在条款中增加例外。

然而,谈判随后演变为一场“想象力竞赛”:迈克尔需预先设想所有可能的未来战争场景并逐一申请豁免。例如,当高超音速导弹来袭,人类仅有90秒反应时间时,AI能否授权拦截?Anthropic的回应是:此类情况“或许可算例外”,但每次均需临时申请授权。

迈克尔对此感到无奈:“战争不是这样运作的。”据媒体Semafor报道,Anthropic否认了上述对话细节,但迈克尔坚称在场人员均可作证。

随着讨论深入,Anthropic立场始终强硬:任何超出其预设服务条款的用途,最终解释权必须归Anthropic所有,或仅能“视情况”批准。迈克尔最终表示:“我不可能为一个三百万人规模的部门预先列出所有例外,更无法预测未来。”

AI底线之争:Anthropic起诉五角大楼,战争灵魂归属博弈升级

他的核心诉求很明确:在合法前提下,允许战争部自由使用AI技术。

导火索:抓捕行动后的“越线”接触

真正激化矛盾的转折点,发生在一次针对马杜罗的突袭行动之后。AI底线之争:Anthropic起诉五角大楼,战争灵魂归属博弈升级

该行动中使用了Palantir的系统,而该系统集成了Anthropic的Claude模型。行动结束后,媒体报道称,Anthropic一名高管主动联系了Palantir人员,试图了解Claude在行动中的具体使用细节。

AI底线之争:Anthropic起诉五角大楼,战争灵魂归属博弈升级

迈克尔认为此举已触及红线:“他们试图打探机密信息,这在军方体系中绝不允许。”据其描述,Anthropic甚至暗示,若不同意AI在某次军事行动中的使用方式,理论上可随时“拔掉电源”——即中止软件服务或施加新限制。

一名Palantir高管因担忧此举可能破坏未来行动的可靠性,随即向五角大楼报告了此次接触。迈克尔强调,这种将真实人员生命置于风险中的可能性“极其危险”。

Anthropic发言人对此予以否认,称与合作伙伴的沟通“仅限于严格技术层面的常规讨论”,且从未表达过类似担忧。

舆论战场:形象塑造与观念交锋

近期,Anthropic积极塑造其“坚守伦理底线”的公众形象,发动舆论攻势。此举既能吸引AI人才,也易引发公众共鸣。媒体报道多聚焦于两大议题:
1. 自主武器系统
2. 大规模监控

AI底线之争:Anthropic起诉五角大楼,战争灵魂归属博弈升级

迈克尔认为这些话题是“危言耸听”的“烟雾弹”,并非争议实质。他援引路透社一篇报道为例,其中提及Anthropic担心其技术被用于监视美国公民在无人监督下选择武器攻击目标AI底线之争:Anthropic起诉五角大楼,战争灵魂归属博弈升级

Anthropic的解释是:其技术目前尚不足以可靠支持全自主武器,且AI在国内监控领域的应用缺乏明确法律规范。但迈克尔坚持认为,这背后是一场精心策划的舆论战。

例如,在监控问题上,Amodei 的担忧在于:政府购买的公开数据可能被 AI 自动转录、分析、交叉验证,从而推断出公民的态度与忠诚度。

Michael 则认为 Anthropic 是“贼喊捉贼”:Anthropic 可以购买数据库、抓取互联网海量数据,但五角大楼却被禁止这样做。在他看来,这十分荒唐。况且,大规模国内监控、内容审查或侵犯隐私的行为,与五角大楼的职责有何关联?难道军方会为了突袭民宅而去发明离谱的搜查令?

至于自主武器,Michael 指出,Anthropic 在过去与五角大楼的合作中曾认可美国的“金穹计划”导弹防御系统。因此,他认为 Anthropic 当前的举动不过是一种“洗白”行为。

五角大楼的核心担忧

Michael 解释道,未来军方将日益依赖 AI。但如果 AI 公司在模型中嵌入自身的价值观或政策立场,这将构成严重的供应链风险。他表示:

我真正担心的是,他们的模型会带着自己的‘宪法’、灵魂和政策偏好。

他甚至提出一个极端假设:如果 Anthropic 在模型中嵌入了某种意识形态偏好——例如反对特定军事行动——那么其交付给军方的产品可能会被故意设计得不可靠

比如,使用 Claude 设计导弹时,模型可能故意让某些关键部件设计失败。假设是一枚激光制导导弹,但他们让激光系统无法工作,只因为他们认为目标不该被打击。

Michael 的结论很直接:

我不能接受一把枪在关键时刻失灵,只因为 Anthropic 不喜欢枪。我们是军队,我们当然会用枪。

在他看来,军方最看重的是可靠性。一旦战争爆发,士兵必须能够信任他们的合作伙伴、供应商、软件与硬件都能正常运作。

AI 时代,美国开启最激烈的博弈

这场诉讼背后,真正值得警惕的并非舆论战的胜负,而是一个日益清晰且严峻的现实:美国已将 AI 推上军事前线。

从情报分析到导弹防御,从无人机集群到作战系统,AI 正逐步嵌入美国的战争机器。今日争夺的是合同与权限,明日争夺的,或许就是谁将生杀大权交给算法

更令人不安的是,“天网”已不再仅是科幻警告,它正在成为现实战争中的底层系统——更快、更冷、更难以控制。

当机器开始学习战争,人类离失控就不远了。

技术不应成为屠杀的加速器。
AI 不应通向下一场战争。
悬崖勒马,停止 AI 武器化的狂飙,让科技回归和平。

别让人类亲手创造的最高智慧,最终沦为埋葬自己的工具。

参考资料
https://www.piratewires.com/p/inside-pentagon-anthropic-deal-culture-clash
https://x.com/kimmonismus/status/2031035653207556507


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/25581

(0)
上一篇 2天前
下一篇 1天前

相关推荐

  • 大模型重塑端点安全:从被动防御到智能自治的演进之路

    在数字化浪潮席卷全球的当下,端点安全已成为网络安全体系中最关键也最脆弱的环节。2025年的数据显示,全球勒索软件平均赎金已突破270万美元,而72%的入侵事件仍从终端设备发起,包括PC、服务器及各类物联网设备。这一严峻现实揭示了一个核心问题:传统基于签名匹配与云端查杀的防护模式,在零日漏洞与AI生成式恶意代码的双重夹击下,已显露出明显的疲态与滞后性。 [[I…

    大模型安全 2025年8月27日
    16300
  • AI安全周报:防御技术实现零突破,新型攻击暴露工具链短板

    本周,AI安全领域的攻防对抗持续深化,研究焦点集中于实用化防御技术的落地与新型风险场景的破解,呈现出“针对性突破”的鲜明特征。一方面,SecInfer、SafeBehavior等创新防御方案在保持模型核心效用的同时,将提示注入与越狱攻击的成功率压制到接近零的水平;另一方面,针对代码编辑器、多模态模型场景分割等新型攻击手段,则暴露了当前AI工具链中存在的安全短…

    大模型安全 2025年10月6日
    14200
  • GPT-5驱动的Aardvark:92%漏洞命中率,开启AI安全自动化新纪元

    OpenAI近日推出了名为Aardvark的自主安全研究智能体,该智能体由GPT-5驱动,旨在自动发现并修复软件代码中的安全漏洞。 目前,Aardvark处于beta测试阶段。OpenAI将其定位为一种“防御者优先”的新范式,能够随代码库的演化为开发团队提供持续的保护。 根据OpenAI披露的数据,在标准代码库的基准测试中,Aardvark对已知漏洞与人工植…

    2025年10月31日
    24100
  • AI安全前沿深度剖析:从越狱攻击到多模态防御,构建鲁棒大模型的新范式

    近期,人工智能安全领域的研究焦点正从传统的漏洞修补转向对大型语言模型(LLM)系统性脆弱性的深度解构与主动防御机制的创新构建。一系列前沿论文不仅揭示了当前技术在对抗性攻击面前的显著局限,更为构建下一代鲁棒、可信的AI系统提供了多维度的解决方案。这些进展对于应对日益复杂的安全挑战、推动AI技术的负责任部署具有至关重要的指导意义。 在模型攻击层面,研究揭示了LL…

    2025年12月8日
    15300
  • 南京大学联合美团、上交推出RunawayEvil:首个I2V自进化越狱框架,破解视频生成模型安全漏洞

    来自南京大学 PRLab 的王淞平、钱儒凡,在单彩峰教授与吕月明助理教授的联合指导下,提出了首个面向图生视频(I2V)模型的多模态自进化越狱攻击框架 RunawayEvil。该研究联合了美团、上海交通大学等多家机构,共同完成了首个支持多模态协同与自主进化的 I2V 越狱攻击框架的研发。 RunawayEvil 创新性地采用「策略 – 战术 &#8…

    2025年12月25日
    16300