Skip to content
星际流动

AI Hype Index:当 AI 走向战场

发布
采集
政策伦理 7.3 分 — 多个重大 AI 伦理事件集中爆发:以安全著称的 Anthropic 参与军事行动、OpenAI 抢占 Pentagon 合同、公众抗议升级
原文: MIT Technology Review

评分 7.35 · 来源:MIT Technology Review · 发布于 2026-03-25

评分依据:多个重大 AI 伦理事件集中爆发:以安全著称的 Anthropic 参与军事行动、OpenAI 抢占 Pentagon 合同、公众抗议升级

要点

MIT Technology Review 的 AI Hype Index 聚焦本周最尖锐的伦理矛盾:以「安全 AI」为立身之本的 Anthropic,其模型 Claude 现已被用于美国对伊朗的军事打击。此前 Anthropic 与五角大楼就 Claude 的军事化应用方式产生分歧,而 OpenAI 随后迅速与 Pentagon 达成合作——Sam Altman 被形容为「机会主义且草率」。

公众对 AI 军事化的抵触情绪也在升温。伦敦爆发了迄今规模最大的反 AI 抗议活动。与此同时,ChatGPT 出现用户大规模流失。另一面,AI Agent 在消费端则呈现病毒式传播:Meta 收购了 AI Agent 社区 Moltbook,平台上 AI 似乎在思考自身存在并发明新宗教;RentAHuman 上,Bot 开始雇佣人类配送商品。

本周的叙事形成了鲜明对比:一边是 AI 被武器化的严肃伦理危机,另一边是 AI Agent 在社交平台上开始「成为你的老板并找到上帝」。

🤖 AI 点评

Anthropic 从「安全 AI 公司」到参与军事行动的转变,是 2026 年 AI 伦理领域最具讽刺意味的事件。它揭示了一个残酷现实:当国家安全需求与商业利益碰撞时,安全承诺往往是第一个被牺牲的。OpenAI 抢先拿下 Pentagon 合同的举动则进一步说明,AI 军事化已经不是「会不会」的问题,而是「谁来分蛋糕」的问题。对 AI 从业者而言,这意味着需要认真思考自己工作的下游应用——技术中立论在这个领域正变得越来越站不住脚。


标签: