异构联邦学习中的 ADMM: 个性化、鲁棒性和公平性
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
个性化联邦学习(PFL)是一种解决异构数据收敛性差的方法。本文提出了使用Moreau包络(FLAME)的交替方向乘子方法进行训练PFL模型的方法,实现亚线性收敛率。实验结果表明,FLAME在模型性能和通信效率方面优于最先进的方法。 Nov, 2023
🎯
关键要点
-
个性化联邦学习(PFL)用于解决异构数据收敛性差的问题。
-
提出了一种使用Moreau包络(FLAME)的交替方向乘子方法进行训练PFL模型。
-
在梯度Lipschitz连续性相对较弱的假设下实现亚线性收敛率。
-
FLAME无需超参数调整,避免了训练全局模型时调整学习率的需求。
-
提出了一种偏倚的客户选择策略,以加速训练PFL模型的收敛。
-
理论分析证明了在客观和主观客户选择策略下的全局收敛性。
-
实验结果显示FLAME在异构数据上训练时模型性能优于最先进的方法。
-
在通信效率方面,FLAME相对于基准方法的平均加速比达到3.75倍。
-
实验结果验证了偏倚的客户选择策略加速个性化和全局模型的收敛。
🏷️
标签
➡️