基于蒸馏的联邦学习的拜占庭容错性

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

本研究提出了一种新的联邦学习框架,使用去中心化知识蒸馏来训练全球模型,以更好地适应神经网络映射平均值。实验证明,该框架在异构数据集上表现出更高的效率和更好的训练结果。

🎯

关键要点

  • 联邦学习的性能受到数据分布的异构性影响。
  • 本研究提出了一种新的联邦学习框架,使用去中心化知识蒸馏(FedDKD)。
  • 通过分布在本地的局部模型来训练全球模型,能更有效地拟合神经网络映射平均值。
  • 该框架克服了权重计算问题。
  • 实验证明,FedDKD在极度异构的数据集上表现出更高的效率和更好的训练结果,优于现有算法。
➡️

继续阅读