评分 7.0 · 来源:GitHub Trending · 发布于 2026-04-05
评分依据:Google 官方端侧 LLM 运行时,填补移动端推理基础设施空白,实用价值高
要点
Google AI Edge 团队正式推出 LiteRT-LM(原名可能是 MediaPipe LLM Inference 的演进),这是一个专为 Android 和嵌入式设备设计的语言模型推理运行时。项目上线即获得 1312 星标,今日新增 113 星。
LiteRT-LM 的核心目标是让开发者能在移动端直接运行语言模型,无需云端 API 调用,降低延迟和隐私风险。它与 Google 的 AI Edge 生态(包括 LiteRT、MediaPipe)深度集成,为端侧 AI 应用提供了基础设施层。
🤖 AI 点评
端侧 LLM 推理是 2026 年明确的技术趋势——Apple 的mlx-vlm、Qualcomm 的 AI Engine Direct 都在发力。Google 通过 LiteRT-LM 补齐了 Android 生态的短板,对移动开发者来说是重要的基础设施。不过端侧推理的瓶颈始终在硬件算力,大模型在手机上的实际体验仍需观察。