通过基于贝叶斯优化的模型中毒最大化联邦学习的不确定性

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本文提出了一种名为Delphi的模型中毒攻击方法,旨在增加联邦学习中全球模型输出的不确定性。研究表明,Delphi-BO比Delphi-LSTR导致更高的不确定性,揭示了联邦学习系统的脆弱性。

🎯

关键要点

  • 提出了一种名为Delphi的模型中毒攻击方法。
  • Delphi旨在增加联邦学习中全球模型输出的不确定性。
  • 研究表明Delphi-BO比Delphi-LSTR导致更高的不确定性。
  • 揭示了联邦学习系统的脆弱性,特别是对模型中毒攻击的脆弱性。
➡️

继续阅读