净化上的对抗性训练(AToP):增强鲁棒性和泛化能力
原文中文,约300字,阅读约需1分钟。发表于: 。在这篇论文中,研究人员提出了一种称为对抗训练纯化(AToP)的新框架,通过随机转换(RT)的扰动破坏和对抗损失下的纯化模型优化(FT)来加强深度神经网络对抗攻击的鲁棒性和泛化能力,并通过对 CIFAR-10、CIFAR-100 和 ImageNette 的广泛实验表明其在对抗攻击防御方面达到了最先进的结果和泛化能力。
通过使用生成模型进行对抗性净化,新的框架语言引导对抗净化(LGAP)展示了很强的对抗性防御性能。LGAP利用预训练的扩散模型和字幕生成器来防御对抗性攻击,经过评估证明了其提高对抗性鲁棒性的有效性。LGAP的性能优于现有的对抗性防御技术,无需专门的网络训练,为进一步研究提供了有希望的方向。