基于非独立同分布数据的鲁棒联邦学习中的对数标定
原文约300字/词,阅读约需1分钟。发表于: 。本研究采用对抗训练 (Adversarial Training, AT) 框架来提高联邦学习模型对对抗样本攻击的鲁棒性,即联邦对抗训练 (Federated Adversarial Training, FAT);同时通过一种简单而有效的对数准确性矫正策略解决非独立同分布的数据分布问题,以提高模型鲁棒性,实验证明该策略在 MNIST、Fashion-MNIST 和 CIFAR-10...
本文介绍了一种联邦对抗训练(FAT)方法,结合联邦学习和对抗训练,以降低诈骗攻击风险并保护数据隐私。研究了在不同数据集上的理想设置和对模型的会耗时的自然扩展。成功破解了一种蒸馏攻击,揭示了模型的弱点。