Skip to content
星际流动
模型动态
工程实践
学术前沿
行业动态
深度观点
算力硬件
政策伦理
文章库
模型动态
工程实践
学术前沿
行业动态
深度观点
算力硬件
政策伦理
文章库
首页
/
标签
/
llm架构
Tag:
LLM架构
All the articles with the tag "LLM架构".
7.0
MoDA:混合深度注意力机制,让 LLM 的深度扩展更高效
2026年03月17日
·
arXiv
· 03/18 04:36 采集
提出跨层深度 KV 注意力机制 MoDA,在仅增加 3.7% FLOPs 的情况下显著提升深层 LLM 性能