Skip to content
星际流动

Mistral Small 4 发布:119B MoE 统一推理、多模态和编程能力,Apache 2 开源

发布
采集
模型动态 9.0 分 — 119B MoE 统一三大能力线,Apache 2 开源许可,对开源 AI 生态影响重大,支持 reasoning effort 切换
原文: Simon Willison

评分 9.0 · 来源:Simon Willison · 发布于 2026-03-16

评分依据:119B MoE 统一三大能力线,Apache 2 开源许可,对开源 AI 生态影响重大,支持 reasoning effort 切换

要点

Mistral 发布 Mistral Small 4,尽管名字里有”Small”,实际上是一个重要的旗舰级发布:

模型规格:

核心创新 — 三合一统一模型:

Reasoning Effort 支持:

同步发布 — Leanstral:

🤖 AI 点评

这是 Mistral 对”一个模型做所有事”路线的重要验证。之前 Mistral 把推理、多模态、编程拆成三个独立品牌,现在合三为一,说明他们认为 统一模型 在用户体验和部署简易性上更有优势。

119B/6B 的 MoE 配比很关键 — 只有 5% 的参数在推理时激活,这意味着在合适的硬件上可以本地部署。Apache 2 许可让任何人都能直接用于商业场景。

reasoning_effort 切换是近期模型设计的重要趋势(OpenAI o 系列也有类似机制)。Mistral 在开源模型上首次支持这个特性,让开发者可以在速度和精度之间灵活权衡。对于 Agent 场景尤其有用 — 简单工具调用用 none,复杂规划用 high。


标签: