模型动态
「模型动态」分类下的所有文章
- 8.5
NVIDIA 发布 Nemotron 3 Super:120B 混合专家模型,专为 Agent 推理设计
120B 参数混合 Mamba-Transformer MoE 架构,1M context 窗口,开源权重,针对多 Agent 系统优化
- 7.5
Google 发布 Gemini 3.1 Flash-Lite:Gemini 系列最低价最快速模型
· DQ IndiaGoogle 推出 Gemini 3.1 Flash-Lite,输入价格仅 $0.25/M tokens,是 Gemini 3 系列中速度最快、成本最低的生产级模型,专为高并发开发者工作负载设计。
- 7.5
Meta 旗舰大模型 Avocado 推迟至五月发布
Meta CEO 扎克伯格力推的旗舰模型 Avocado 因性能问题推迟发布,原定三月上线,现推至至少五月。
- 8.0
Fish Audio 开源 S2:可精细控制情感的新一代 TTS 模型
Fish Audio 开源 S2-Pro,双 AR 架构实现情感可控的高表现力 TTS,同步发布权重、微调代码和推理引擎。
- 8.0
Google 发布 Gemini Embedding 2——首个原生多模态 Embedding 模型
Google 推出 Gemini Embedding 2,首个同时覆盖文本、图像、视频、音频的原生多模态嵌入模型,支持 8K 上下文和 100+ 语言,已上线公开预览。
- 8.5
NVIDIA 发布 Nemotron 3 Super:专为 Agentic AI 打造的 120B 开源混合架构模型
120B 总参数、12B 激活参数的 Mamba-Transformer MoE 混合模型,开放权重,推理吞吐量比同类高 5 倍,专门针对多智能体系统优化。
- 9.2
OpenAI 发布 GPT-5.4 Thinking 和 GPT-5.4 Pro:面向专业工作的最强前沿模型
· OpenAIOpenAI 正式推出 GPT-5.4 系列,包括 GPT-5.4 Thinking(集成思维链推理)和 GPT-5.4 Pro(最高质量选项),同步支持 1M token 上下文窗口,面向 Codex 和 API 全面开放。
- 8.5
智谱 GLM-5:744B 参数开源 MoE 大模型,MIT 许可,SWE-bench 达 77.8%
智谱 AI 发布 GLM-5,一个 744B 参数的混合专家(MoE)开源模型,基于华为昇腾芯片训练,MIT 许可证,SWE-bench Verified 达 77.8%,开源阵营中排名第三。
- 8.3
Google DeepMind 发布 Gemini Deep Think:重新定义科学研究
DeepMind 发布 Gemini Deep Think 最新版本,在奥林匹克级别数学问题上大幅超越前代,推动 AI 辅助科学发现。
- 7.5
Google 发布 Gemini 3.1 Flash Lite:最快最省钱的 Gemini 3 系列模型
Gemini 3.1 Flash Lite 于 3 月 3 日正式上线 Google AI Studio 和 Vertex AI,支持 1M token 上下文、多模态输入,速度比 2.5 Flash 快 2.5 倍。