DualFed:通过分层表示在联邦学习中实现泛化与个性化共享

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本文提出了一个新的联邦学习框架和算法,利用跨客户的分布式计算能力,在线性设置中高效地降低问题维度。实验证明该方法获得与地面实况表示的线性收敛,并在异构数据的联邦环境中相对于个性化联邦学习方法有经验改进。

🎯

关键要点

  • 提出了一个新的联邦学习框架和算法,用于在客户之间学习共享的数据表示和每个客户的独特的本地头。

  • 算法利用跨客户的分布式计算能力进行低维本地参数的局部更新。

  • 方法在线性设置中获得与地面实况表示的线性收敛,接近最优样本复杂度。

  • 在每个客户端高效地降低问题维度,超出联合学习的范围。

  • 该方法在异构数据的联邦环境中相对于个性化联邦学习方法有经验改进。

➡️

继续阅读