SA-MDKIF:大规模语言模型的可扩展且适应性强的医学领域知识注入框架
原文中文,约200字,阅读约需1分钟。发表于: 。我们提出了 SA-MDKIF,它是一个可扩展和适应性强的框架,通过指令调整将医学知识注入通用语言模型,从而使其能够适应各种下游任务,实验证明 SA-MDKIF 相比原始的大型语言模型在医学任务中的性能提升了 10-20%,对于未见过的医学任务,性能提升高达 30%。
通过LoRA-based instruction-tuning提高日本医学问答任务性能,将领域特定知识整合到大型语言模型中,突出英语为中心的模型适应日本应用的潜力,标志着医疗机构可以对模型进行精细调整和操作的先驱性努力。