自适应优化下的联邦学习中的参数跟踪

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本研究提出了新算法FAdamET和FAdamGT,以解决联邦学习中客户数据异质性导致的模型训练性能下降问题。实验结果表明,这些算法在通信和计算成本上优于现有方法。

🎯

关键要点

  • 本研究提出了新算法FAdamET和FAdamGT。
  • 算法旨在解决联邦学习中客户数据异质性导致的模型训练性能下降问题。
  • 基于自适应优化的方法,通过将参数跟踪引入Adam方法。
  • 展示了在非凸条件下的收敛性分析。
  • 实验结果表明,这些算法在通信成本和计算成本上优于现有方法。
  • 证明了在联邦自适应优化中调整一阶信息的有效性。
➡️

继续阅读