Skip to content
星际流动

Can Continual Pre-training Bridge the Performance Gap between General-purpose and Specialized LLMs in Medical Domain?

发布
采集
学术前沿 6.0 分 — 通过持续预训练+merging缩小通用模型与专业医学模型的差距,构建德语医学语料FineMed-de。医疗AI领域有意义的工作
原文: cs.CL updates on arXiv.org

评分 6 · 来源:cs.CL updates on arXiv.org · 发布于 2026-04-22

评分依据:通过持续预训练+merging缩小通用模型与专业医学模型的差距,构建德语医学语料FineMed-de。医疗AI领域有意义的工作

核心思路

通过领域自适应(持续预训练+merging)缩小通用模型与专业领域模型的性能差距。

数据贡献

构建FineMed-de:从FineWeb2构建的高质量德语医学语料库,用于解决非英语专业数据稀缺问题。

实验验证

对3个知名LLM(7B-24B参数)进行持续预训练和合并,创建在医学领域接近专用的通用模型。

启示

证明了持续预训练+merging路线在专业领域的有效性,对其他语言和领域的专业化适配有借鉴意义。


标签: