FedQUIT:通过准合格虚拟教师进行设备端的联邦遗忘学习

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

该研究提出了名为FATS的新联邦学习框架,解决个别客户或数据对全局模型的影响。该框架在通信效率和去学习可证明性方面具有优势,并在实证验证中展示了准确性、通信成本、计算成本和去学习效果的优越性。

🎯

关键要点

  • 研究联邦去学习问题,解决个别客户或数据对全局模型的影响。
  • 推导出所删除数据的无合差异性模型。
  • 引入新的完全联邦去学习框架,满足通信效率和完全去学习可证明性的基本条件。
  • 定义确切的联邦去学习,保证无学习后的模型与未删除数据时训练的模型在统计上无差异。
  • 利用模型参数对数据集轻微变化的变动程度,实现快速联邦去学习的总变差稳定性。
  • 开发名为FATS的总变差稳定的联邦学习算法,修改经典的FedAvg算法以降低轮次通信。
  • 设计针对FATS的高效去学习算法,包括客户级和样本级的去学习。
  • 提供学习和去学习算法的理论保证,证明它们在原始模型和去学习模型上达到了确切的联邦去学习。
  • 在6个基准数据集上经过实证验证,展示该框架在准确性、通信成本、计算成本和去学习效果方面的优越性。
➡️

继续阅读