DFDG:无数据双生成对抗蒸馏的一次性联邦学ä¹

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

该研究提出了一种新的联邦学习框架,利用无标签的开放数据集和基于蒸馏的半监督学习算法,实现了模型的交流和性能的提高,并通过减少模型之间的异质性来减少熵的平均值。实验结果表明,相对于FL基准,DS-FL能降低高达99%的通信成本,同时达到相似甚至更高的分类准确性。

🎯

关键要点

  • 提出了一种新的联邦学习框架
  • 利用无标签的开放数据集和基于蒸馏的半监督学习算法
  • 实现了模型的交流和性能的提高
  • 通过减少模型之间的异质性来降低熵的平均值
  • 实验结果显示DS-FL相对于FL基准能降低高达99%的通信成本
  • DS-FL在分类准确性上达到相似甚至更高的水平
➡️

继续阅读