Skip to content
星际流动

MCP 正在吃掉你的上下文窗口,CLI 是更简单的方案

发布
采集
深度观点 8.5 分 — 深度技术分析,用实测数据揭示 MCP 的 token 开销问题,提出 CLI 作为务实替代方案
原文: Apideck Blog

评分 8.5 · 来源:Apideck Blog · 发布于 2026-03-16

评分依据:深度技术分析,用实测数据揭示 MCP 的 token 开销问题,提出 CLI 作为务实替代方案

要点

Apideck 发布深度技术文章,分析 MCP(Model Context Protocol)在 AI Agent 集成中的 token 消耗问题,并提出 CLI 作为更高效的替代方案。

MCP 的 token 开销问题:

Scalekit 基准测试(75 次对比):

CLI 的优势:

Apideck CLI 的 Agent prompt 只需 ~80 tokens,而 MCP 需要 10,000-50,000+ tokens 预加载。

🤖 AI 点评

这篇文章用硬数据打破了「MCP 是 Agent 集成标准答案」的共识。55,000 tokens 的预加载开销、28% 的失败率、4-32 倍的 token 消耗——这些数字让人重新审视 MCP 的适用边界。

CLI 的「渐进式披露」思路很聪明:模仿人类开发者的行为模式(先 --help 再深入),而不是一次性灌输所有信息。这不只是 token 优化,更是认知负载管理。

但文章也诚实地指出 CLI 的局限:不适合高频调用的少量工具、不适合需要流式通信的场景、不适合多租户 OAuth 场景。这种「知道自己边界」的技术讨论比盲目推销更有价值。

MCP、代码执行、CLI 三种方案各有适用场景,关键是理解 tradeoff。这篇文章最大的贡献是把 token 经济学摆到台面上——在上下文窗口有限的现实下,架构选择不只是技术偏好,更是资源分配策略。


标签: