评分 7.8 · 来源:MIT Technology Review · 发布于 2026-03-16
评分依据:军事应用具体场景首次披露,深度分析+多角度,AI 伦理重要参考
要点
OpenAI 与五角大楼达成协议两周后,其技术在伊朗冲突中的具体应用场景首次被披露。MIT Tech Review 采访国防官员,描绘了三大应用方向:
目标分析与打击决策:分析师可将潜在目标列表输入 AI 模型,要求其分析并优先排序打击顺序,综合考虑后勤信息(飞机、补给位置)和多模态情报(文本、图像、视频)。人类负责手动检查输出,但这引发疑问:如果真的在”双重检查”,AI 如何加速决策?实际上,OpenAI 模型可能在 Maven 系统(自动分析无人机画面识别目标)之上提供对话界面,允许用户询问情报解读和打击建议。
无人机防御:OpenAI 与 Anduril 合作,对攻击美军的无人机进行时效性分析并协助击落。OpenAI 发言人称这不违反”禁止伤害他人系统”政策,因为目标是无人机而非人类。Anduril 的 Lattice 界面控制从无人机防御到导弹和自主潜艇的一切,刚获得美国陆军 200 亿美元合同。
后勤 AI (GenAI.mil):国防部长 Pete Hegseth 鼓励数百万行政人员使用 GenAI.mil 平台,OpenAI 模型已于 2 月加入,用于起草政策文件、合同和任务行政支持。虽然这些用户不太可能影响伊朗敏感决策,但体现了 Hegseth 在五角大楼全面推进 AI 的态度。
🤖 AI 点评
这是生成式 AI 从”分析辅助”到”行动建议”的质变时刻。Maven 系统做识别,OpenAI 做决策推荐——这条界限的模糊化比技术本身更值得警惕。文章揭示的核心矛盾是:如果人类真的在”检查”AI 输出,那 AI 的速度优势何在?答案可能是,所谓”检查”正在从”验证”滑向”确认”。