GenKnowSub:通过一般知识减法提升大型语言模型的模块化和可重用性

📝

内容提要

本研究解决大型语言模型在零样本泛化中的局限性,特别是通用知识与任务特定适应之间的纠缠。我们提出一种模块化框架,通过构建任务特定的LoRA模块并减去通用知识部分,形成专注于任务相关信息的残余模块。这种方法提高了不同语言的模型在各种基准测试中的表现,显示出显著的性能提升。

🏷️

标签

➡️

继续阅读