Skip to content
AI Feed
Go back

NVIDIA 发布 Nemotron 3 Super:专为 Agentic AI 打造的 120B 开源混合架构模型

NVIDIA 正式发布 Nemotron 3 Super,这是 Nemotron 系列首个采用混合 Mamba-Transformer MoE 架构的开源模型,在复杂 Agent 推理任务上树立了新的效率标杆。

核心参数:120B 总参数,12B 激活参数,采用 LatentMoE 架构。在 NVIDIA Blackwell 平台上以 NVFP4 精度运行,内存占用更低,推理速度比 NVIDIA Hopper FP8 快 4 倍,整体吞吐量比同等级模型高出 5 倍,且精度无损。

面向场景:软件工程自动化、网络安全分析等多智能体应用——恰好是当前 Agent 系统的主战场。模型以宽松许可证开放权重,支持商业部署。

混合 Mamba 架构绕开了纯 Transformer 的注意力瓶颈,长序列处理效率显著提升,这对需要持续上下文的 Agent 任务尤为关键。


Share this post on:

Previous Post
Perplexity Agent API 发布——用单一端点统一六家模型提供商
Next Post
Elon Musk 发布 Macrohard:Tesla + xAI 联合打造「Digital Optimus」软件公司替代者