逻辑回归校准与特征对比:用于非独立同分布数据的鲁棒联邦学习
原文中文,约300字,阅读约需1分钟。发表于: 。本文介绍了 LHD 的一个解决方案,名为 FatCC,通过在 local adversarial updates 过程中对 logit 进行校准,以及引入 feature contrast 的全球对齐术语,从 logit 和 feature 两个角度进一步改善联合对抗训练的稳健性和准确性。实验结果表明,与其他基线相比,FatCC 在 clean accuracy 和 robust...
本文介绍了一种联邦对抗训练(FAT)方法,结合联邦学习和对抗训练,以降低诈骗攻击风险并保护数据隐私。研究了在不同数据集上的理想设置和对模型的会耗时的自然扩展。成功破解了一种防御方法,揭示了其对简单攻击的脆弱性。