利用模型压缩解决联合学习中的会员推导攻击

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

该研究提出了一种在线知识蒸馏的新方法,通过对比损失保证了参与者在不共享输入数据的情况下学习相似特征。该方法在多个数据集上进行了性能测试,相比独立学习和其他联邦知识蒸馏方案,提高了模型的效用。

🎯

关键要点

  • 提出了一种在线知识蒸馏的新方法。
  • 该方法使用对比损失,确保参与者在不共享输入数据的情况下学习相似特征。
  • 参与者将平均最后隐藏层激活的特征表示发布到中央服务器。
  • 客户端使用对比目标在个人模型中蒸馏知识。
  • 该方法相比独立学习和其他联邦知识蒸馏方案提高了模型的效用。
  • 在多个数据集上进行了性能基准测试,使用了不同的模型架构。
➡️

继续阅读