个性化协作微调用于设备上的大型语言模型

💡 原文约300字/词,阅读约需1分钟。
📝

内容提要

FlexLoRA是一种用于LLM fine-tuning的聚合方案,通过动态调整本地LoRA等级并使用奇异值分解(SVD)进行权重重新分配,提高了联邦全局模型在下游NLP任务性能方面的表现。实验结果证实了FlexLoRA的有效性,平均提高了3.1%。FlexLoRA与现有的基于LoRA的联邦学习方法无缝集成,提供了可扩展的、隐私保护的LLM联邦调整路径。

🎯

关键要点

  • FlexLoRA是一种用于LLM fine-tuning的聚合方案。

  • 通过动态调整本地LoRA等级和使用奇异值分解(SVD)进行权重重新分配。

  • 充分利用异构客户端资源。

  • 在超过1,600个客户端的实验中,FlexLoRA的有效性得到了证实。

  • 联邦全局模型在下游NLP任务性能方面平均提高了3.1%。

  • FlexLoRA与现有的基于LoRA的联邦学习方法无缝集成。

  • 提供了一种可扩展的、隐私保护的LLM联邦调整路径。

➡️

继续阅读