Delta-LoRA:用低秩矩阵的增量微调高秩参数
原文中文,约400字,阅读约需1分钟。发表于: 。本文介绍了 Delta-LoRA,这是一种新颖的参数高效的方法,用于微调大型语言模型(LLMs)。与 LoRA 和其他低秩适应方法相比,Delta-LoRA 不仅更新低秩矩阵 A 和 B,还通过利用两个低秩矩阵的乘积的增量将学习传播到预训练权重 W,从而有效地解决了低秩矩阵的增量更新对于学习适用于下游任务的表示的不足。此外,由于 W 的更新不需要计算 W...
Delta-LoRA是一种用于微调大型语言模型的新方法,通过增量更新低秩矩阵,将学习传播到预训练权重,解决了低秩矩阵更新的不足。实验证明Delta-LoRA在内存需求和计算成本方面与LoRA相当,且优于其他方法。