通过自适应权重聚类和服务器端蒸馏实现高效通信的联邦学习

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

本文研究了在通信成本和隐私保护的限制下联邦表示学习的可行性。通过自监督对比本地训练的鲁棒性,提出了一种新的Federated representation Learning框架,使用相似度蒸馏对全局模型进行训练。实验证明该方法在多种数据集上能够以可比较的结果实现多种设置下的性能。

🎯

关键要点

  • 研究了在通信成本和隐私保护限制下的联邦表示学习可行性。

  • 证明了自监督对比本地训练的鲁棒性。

  • 提出了一种新的联邦表示学习框架,使用相似度蒸馏训练全局模型。

  • 通过实验验证了该方法的有效性。

  • 在多种数据集上,该方法在更严格限制下仍能实现可比较的性能。

➡️

继续阅读