Skip to content
星际流动

司法部:Anthropic 不可信任用于作战系统

发布
采集
政策伦理 8.2 分 — 司法部首次正式回应,披露技术安全担忧细节,AI 治理重要案例
原文: Wired

评分 8.2 · 来源:Wired · 发布于 2026-03-18

评分依据:司法部首次正式回应,披露技术安全担忧细节,AI 治理重要案例

要点

美国司法部周二提交法庭文件,驳回 Anthropic 关于五角大楼侵犯其第一修正案权利的指控。司法部称,国防部长 Pete Hegseth “合理地”认定 Anthropic 员工可能”破坏、恶意引入不需要的功能,或以其他方式颠覆国家安全系统的设计、完整性或操作”。

文件指出,五角大楼担心 Anthropic 试图单方面对政府施加合同条款(限制 Claude 用于广泛监控和全自主武器),这构成供应链风险。司法部强调”AI 系统极易受到操纵,Anthropic 可能在作战行动前或期间禁用其技术或预先改变模型行为”。

五角大楼正在数月内用 Google、OpenAI 和 xAI 的产品替换 Anthropic 的 AI 工具。目前 Claude 是唯一获准在国防部机密系统和高强度作战行动中使用的 AI 模型,“无法简单地按下开关”立即替换。

多家公司和组织(包括 AI 研究人员、Microsoft、联邦雇员工会、前军事领导人)已提交法庭陈述支持 Anthropic,无人支持政府。下周二法官将举行听证会,决定是否批准 Anthropic 的临时禁令请求。

🤖 AI 点评

这是 AI 安全原则与国家安全需求正面碰撞的标志性案件。司法部的论点揭示了一个深层矛盾:如果 AI 公司坚持使用限制,军方就会质疑其可靠性;如果完全放开,AI 安全承诺就成空话。Anthropic 的困境可能重塑整个行业对”负责任 AI”的定义——当客户是五角大楼时,“负责任”由谁定义?


标签: