异构联邦学习中的 ADMM: 个性化、鲁棒性和公平性

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

个性化联邦学习(PFL)是一种解决异构数据收敛性差的方法。本文提出了使用Moreau包络(FLAME)的交替方向乘子方法进行训练PFL模型的方法,实现亚线性收敛率。实验结果表明,FLAME在模型性能和通信效率方面优于最先进的方法。 Nov, 2023

🎯

关键要点

  • 个性化联邦学习(PFL)用于解决异构数据收敛性差的问题。

  • 提出了一种使用Moreau包络(FLAME)的交替方向乘子方法进行训练PFL模型。

  • 在梯度Lipschitz连续性相对较弱的假设下实现亚线性收敛率。

  • FLAME无需超参数调整,避免了训练全局模型时调整学习率的需求。

  • 提出了一种偏倚的客户选择策略,以加速训练PFL模型的收敛。

  • 理论分析证明了在客观和主观客户选择策略下的全局收敛性。

  • 实验结果显示FLAME在异构数据上训练时模型性能优于最先进的方法。

  • 在通信效率方面,FLAME相对于基准方法的平均加速比达到3.75倍。

  • 实验结果验证了偏倚的客户选择策略加速个性化和全局模型的收敛。

🏷️

标签

➡️

继续阅读