个性化协作微调用于设备上的大型语言模型
原文约300字/词,阅读约需1分钟。发表于: 。在设备上进行自我监督的合作微调大规模语言模型的研究,使用三种不同的信任加权梯度集成方案,并与 FedAvg 和本地微调方法相比,使用少量的数据交换和 LoRA 权重更新,显示出在本地数据分布不均的现实场景中处理异质性和稀缺性方面的有效性。
FlexLoRA是一种用于LLM fine-tuning的聚合方案,通过动态调整本地LoRA等级并使用奇异值分解(SVD)进行权重重新分配,提高了联邦全局模型在下游NLP任务性能方面的表现。实验结果证实了FlexLoRA的有效性,平均提高了3.1%。FlexLoRA与现有的基于LoRA的联邦学习方法无缝集成,提供了可扩展的、隐私保护的LLM联邦调整路径。