FedBAT:通过可学习的二值化实现高效通信的联邦学习

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

本论文提出了一种基于贝叶斯推理的自适应辍学方法(FedBIAD),通过将局部模型权重转化为概率分布,并根据本地训练损失趋势辍掉部分权重行,从而在减少通信成本的同时提高准确性。实验证明该方法在非独立同分布数据上可以提高2.41%的准确率,并最多缩短72%的训练时间。

🎯

关键要点

  • 提出了一种基于贝叶斯推理的自适应辍学方法(FedBIAD)。
  • 通过将局部模型权重转化为概率分布,逐行辍掉部分权重行。
  • 根据本地训练损失趋势的相关重要性指标自适应辍学。
  • 减少上行通信成本的同时提高模型准确性。
  • 理论分析表明FedBIAD的平均泛化误差收敛速度是最优的。
  • 在非独立同分布数据上,准确率提高了2.41%。
  • 训练时间最多缩短72%。
➡️

继续阅读