Skip to content
星际流动

Symbiotic-MoE: Unlocking the Synergy between Generation and Understanding

发布
采集
学术前沿 8.0 分 — 统一生成与理解的MoE预训练框架:原生多模态MoE内解决任务干扰问题,零参数开销,对多模态基础模型架构有重要贡献。
原文: arxiv.org

评分 8 · 来源: · 发布于 2026-04-10

评分依据:统一生成与理解的MoE预训练框架:原生多模态MoE内解决任务干扰问题,零参数开销,对多模态基础模型架构有重要贡献。