分布式知识图谱通过扩散模型实现遗忘
💡
原文中文,约500字,阅读约需1分钟。
📝
内容提要
该研究提出了名为FATS的新联邦学习框架,解决个别客户或数据对全局模型的影响问题。该框架通过保证无学习之后的模型与未删除数据时训练的模型在统计上无差异,并具有总变差稳定性的特性,实现了快速联邦去学习。实证验证表明,该框架在准确性、通信成本、计算成本和去学习效果方面具有优势。
🎯
关键要点
- 研究联邦去学习问题,解决个别客户或数据对全局模型的影响。
- 提出了一种新的完全联邦去学习框架,满足通信效率和完全去学习可证明性的基本条件。
- 通过定义确切的联邦去学习,保证无学习之后的模型与未删除数据时训练的模型在统计上无差异。
- 利用总变差稳定性实现快速联邦去学习的关键特性。
- 开发了名为FATS的总变差稳定的联邦学习算法,修改了经典的FedAvg算法以降低通信轮次。
- 设计了针对FATS的高效去学习算法,包括客户级和样本级的去学习。
- 提供了学习和去学习算法的理论保证,证明它们在原始模型和去学习模型上达到了确切的联邦去学习。
- 在6个基准数据集上经过实证验证,展示了该框架在准确性、通信成本、计算成本和去学习效果方面的优越性。
➡️