Skip to content
星际流动

乐天发布 AI 3.0:日本最大开源 LLM,700B MoE 架构瞄准日语实战

发布
采集
模型动态 7.4 分 — 日本最大开源 LLM 首次发布,700B MoE/40B 活跃参数设计精巧,日语基准成绩突出,技术细节充分
原文: Greeden Blog

评分 7.4 · 来源:Greeden Blog · 发布于 2026-03-23

评分依据:日本最大开源 LLM 首次发布,700B MoE/40B 活跃参数设计精巧,日语基准成绩突出,技术细节充分

要点

乐天(Rakuten)正式发布 AI 3.0,采用约 7000 亿参数的混合专家(MoE)架构,但每次推理仅激活约 400 亿参数——这意味着在保持大模型能力的同时,推理成本显著低于同等规模的稠密模型。

在日语 MT-Bench 基准测试中,AI 3.0 取得 8.88 的高分,成为日本迄今表现最强的开源 LLM。该模型专门针对日语进行了优化训练,在日语理解和生成任务上具备显著优势,同时兼顾英语能力。乐天强调 AI 3.0 的目标是「实战可用」,而非仅追求数字刷榜。

乐天选择开源策略发布这一模型,使其成为继 Qwen、DeepSeek 之后又一个重要的非英语主导市场开源 LLM 项目。对于多语言模型研究和日语 AI 应用开发而言,这是一个值得关注的新选项。

🤖 AI 点评

700B MoE + 40B 活跃参数的组合是当前性价比最优的架构选择之一,乐天没有盲目追参数量而是聚焦日语实战,思路清晰。不过日语 LLM 生态相对小众,国际影响力可能有限。真正值得关注的是:非英语市场是否会成为下一个开源 LLM 的主战场。


标签: