Meta 于 3 月 11 日宣布大幅扩展自研硅芯片计划,将在未来两年内完成四代 MTIA(Meta Training and Inference Accelerator)芯片的研发与大规模部署。
关键信息:
- 四代芯片将覆盖两类核心场景:内容排序推荐算法 + 生成式 AI 推理
- 主要目标是降低对英伟达 GPU 的采购依赖,提升 AI 算力成本效率
- 当前 MTIA 芯片已在 Meta 内部大规模部署,支撑 Facebook/Instagram 的推荐引擎
- 新一代芯片将着重提升生成式 AI 工作负载的吞吐量,为 Meta AI 和 Llama 系列提供底层支撑
背景: Meta 正同时在消费 AI(Meta AI 助手)和基础设施两条线上加速投入。自研芯片路线一旦成熟,将显著提升 Meta 在 AI 算力上的自主可控性,同时为其在「intelligence too cheap to meter」赛道上积累筹码。
这一动作与苹果(A 系列芯片)、Google(TPU)等科技巨头自研 AI 芯片的趋势一致,也是科技行业摆脱芯片供应链制约的整体策略缩影。