参数高效调整中的分析与降低灾难性遗忘
原文中文,约400字,阅读约需1分钟。发表于: 。在研究中我们发现,当大型语言模型在复杂多样的特定领域下任务中不断进行微调时,对历史任务的推理性能会显著降低,这就是所谓的灾难性遗忘问题。本文通过模态连接性的透镜,调查了连续 LLM 微调场景中不同极小值之间的几何连接,发现它可以在可塑性和稳定性之间取得平衡。基于这些发现,我们提出了一种称为 Interpolation-based LoRA(I-LoRA)的简单而有效的方法,它基于 LoRA...
研究人员发现大型语言模型在复杂多样的特定领域下进行微调时,推理性能会显著降低,称为灾难性遗忘问题。他们提出了I-LoRA方法,通过参数插值构建双记忆经验回放框架,解决了这个问题。实验结果显示,I-LoRA在连续学习基准测试中比之前的方法提高了11%的性能。