神经网络潜在表征中的对抗性机器学习
原文中文,约300字,阅读约需1分钟。发表于: 。通过信息论的背景将此问题转化为信息失真和鲁棒性的两个新度量,我们对分布式深度神经网络(DNNs)对抗行为的鲁棒性进行了严格分析,并通过考虑 6 种不同的 DNN 架构、6 种不同的分布式 DNN 方法和对 ImageNet-1K 数据集进行 10 种不同的对抗攻击的广泛实验分析来验证我们的理论发现。实验结果支持我们的理论发现,显示出压缩的隐含表示可以在最佳情况下将对抗性攻击的成功率降低...
该研究探讨了分布式深度神经网络(DNNs)对抗行为的鲁棒性,并通过实验验证了压缩的隐含表示可以在最佳情况下将对抗性攻击的成功率降低 88%,平均降低 57%。该研究将问题转化为信息失真和鲁棒性的两个新度量,并考虑了不同的DNN架构、分布式DNN方法和对ImageNet-1K数据集进行了10种不同的对抗攻击的广泛实验分析。