评分 7.05 · 来源:MIT Technology Review · 发布于 2026-03-18
重大政策信号,AI 军事化从”使用”走向”训练”,安全风险和伦理影响深远
要点
MIT Technology Review 独家报道,美国国防部正在讨论建立安全环境,允许 AI 公司在机密数据上训练专用军事版模型。
- 现状到变化:目前 Anthropic Claude 等模型已在机密环境中用于回答问题(包括伊朗目标分析),但仅是推理使用,不学习数据。新计划将允许模型直接在机密数据上训练
- 安全架构:训练将在获得机密项目认证的安全数据中心进行,AI 公司人员在极少数情况下可凭安全许可接触数据
- 分步推进:五角大楼计划先评估模型在非机密数据(如商业卫星图像)上的训练效果,再决定是否推进机密数据训练
- 参与厂商:五角大楼已与 OpenAI 和 xAI 达成协议在机密环境运营模型,配合新的「AI-first 作战力量」战略
- 安全风险:机密情报(监控报告、战场评估)可能嵌入模型本身,且 AI 公司将比以往更深入接触机密数据
🤖 AI 点评
这是 AI 军事化进程中一个标志性节点——从”用 AI 查数据”到”让 AI 学数据”,性质完全不同。机密情报嵌入模型权重意味着模型本身成为需要保密的资产,这对模型安全、供应链信任、以及 AI 公司的合规架构都提出了全新要求。对行业的长期影响在于:当主要 AI 公司深度绑定国防需求,其商业模型和开源策略都可能受到影响。