通过交替最小化LoRA实现基础模型的鲁棒联邦微调

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

FedLoRA是一个基于LoRA调优的模型异构个性化联邦学习框架,实验结果显示其在测试准确性、计算开销和通信成本方面均优于六种最先进的基准方法,准确性提高了1.35%,计算开销减少了11.81倍,通信成本降低了7.41倍。

🎯

关键要点

  • FedLoRA是一个基于LoRA调优的模型异构个性化联邦学习框架。
  • FedLoRA为每个联邦学习客户端设计了同质化小适配器。
  • 该框架允许客户端在低计算和通信成本下训练异构化的本地模型。
  • 实验结果显示,FedLoRA在测试准确性方面优于六种最先进的基准方法,准确性提高了1.35%。
  • FedLoRA的计算开销减少了11.81倍,通信成本降低了7.41倍。
➡️

继续阅读