针对联邦学习的数据不可知模型污染:一种图自编码器方法
原文中文,约300字,阅读约需1分钟。发表于: 。该研究提出了一种基于对抗图自编码器的新颖的数据无关型模型污染攻击方法,攻击者通过监听无害的本地模型和全局模型来提取其中的图结构关联,并用对抗性图结构和训练数据特征生成恶意本地模型,导致联邦学习的准确性逐渐下降,现有的防御机制无法检测这种攻击,对联邦学习构成严重威胁。
该综述论文全面研究了恶意攻击的联邦学习,分类了攻击来源和目标,并深入分析了其方法和影响。讨论了数据攻击模型、模型攻击数据、模型与模型攻击以及复合攻击等威胁模型,并提出了各种防御策略及其效果、假设和潜在改进方向。研究表明,恶意攻击在联邦学习系统的不同阶段日益增多,影响范围广泛。综述强调了开发稳健、高效和保护隐私的防御措施对于确保联邦学习在实际应用中的安全与可信采纳的重要性。