MultiLoRA: 提升多任务学习效果的 LoRA 民主化
原文中文,约300字,阅读约需1分钟。发表于: 。提出了 MultiLoRA,通过减少 LoRA 中观察到的顶层奇异向量的主导性,通过水平扩展 LoRA 模块和改变适应矩阵的参数初始化来减少参数依赖性,从而产生更平衡的单元子空间,从而实现更好的多任务适应性。MultiLoRA 在多个基准和模型规模上优于单个 LoRA 对应项和微调,仅需额外 2.5%的参数。对 MultiLoRA...
MultiLoRA是一种新的多任务适应方法,通过减少主导性和改变参数初始化来实现更平衡的单元子空间。实验证明,MultiLoRA在多个基准和模型规模上优于单个LoRA和微调方法,且只需额外2.5%的参数。进一步研究表明,MultiLoRA的权重更新矩阵减少了对顶层奇异向量的依赖性,使单元变换更加均衡。