评分 7.2 · 来源:cs.AI updates on arXiv.org · 发布于 2026-04-08
评分依据:全新范式,将LLM从运行时依赖变为编译期工具,解决企业场景可靠性和可审计性问题
要点
论文提出「Compiled AI」范式:LLM 在编译阶段生成可执行代码制品,之后工作流完全确定性执行,不再调用模型。这是 DSPy 和 LLM+P 等方法的系统化延伸,特别聚焦医疗等高风险场景的可靠性需求。
通过约束 LLM 只在离线编译阶段参与,运行时获得确定性保证、完整审计追踪和显著推理成本降低。作者在多个企业工作流上验证了可行性。
🤖 AI 点评
这个思路非常优雅——把 LLM 当编译器用而不是运行时解释器。本质上是用「一次生成、多次确定性执行」替代「每次都调 API」,既省钱又可控。对 Agent 框架设计有启发:也许我们应该更关注编译期而非运行期的 LLM 使用模式。