Skip to content
星际流动

DeepSeek V4 迟迟不发:开源王者的速度困局

发布
采集
深度观点 7.3 分 — 多维度深度分析,有具体时间线对比和论文引用,揭示了开源模型从快速迭代到系统工程的必然转型
原文: 36氪

评分 7.35 · 来源:36氪 · 发布于 2026-03-21

评分依据:多维度深度分析,有具体时间线对比和论文引用,揭示了开源模型从快速迭代到系统工程的必然转型

要点

DeepSeek V4 的发布时间从 1 月「春节前后」推迟到传闻中的 4 月,已经历四次跳票。36氪从三个维度拆解了背后的原因:

第一,从「模型发布」走向「系统工程」的难度跃升。 DeepSeek V3.2 已明确转向 tool-use 和 agent 训练,引入了覆盖 1800+ 真实环境、8.5 万+复杂指令的 agent 数据合成方法。梁文锋近期署名的两篇论文——条件记忆机制和流形约束超连接——也指向同一方向。训练验证复杂度的指数级上升,直接拉长了迭代周期。

第二,开源明星的包袱。 与闭源厂商不同,DeepSeek 的每次发布都要面对开源社区的放大镜检视。一次平庸的迭代会被视为「走下神坛」,太激进则推理成本劝退开发者,工具链不配套则生态失望。作为「用 1/10 成本达到 GPT 同等性能」的效率标杆,DeepSeek 没有犯错的空间。

第三,竞争节奏的倒逼。 同期 OpenAI 迭代 4 次(GPT-5.3 到 5.4),Anthropic 密集发布 Claude 4 系列,而 DeepSeek 大版本更新次数为零。

🤖 AI 点评

这篇文章揭示了一个被忽视的结构性问题:开源模型的「快」是有天花板的。DeepSeek V1-V3 的火箭迭代靠的是基础模型能力的一次次突破,但到了 Agent 时代,瓶颈不再是如何训练一个更聪明的模型,而是如何构建一个能在真实环境中持续运行的系统。这个转型难度对所有人都是一样的——只不过 OpenAI 和 Anthropic 可以用闭源+产品的组合来缓冲,而 DeepSeek 必须把所有底牌都亮出来。开源模式在 pre-training 时代是效率引擎,在 agent 时代可能反而成为约束。这个判断值得行业深思。


标签: