分类器引导增强扩散基础的对抗性净化,通过保留预测信息
原文中文,约300字,阅读约需1分钟。发表于: 。本研究针对基于扩散模型的对抗性净化方法在处理噪声与信息保留之间的矛盾,提出了分类器引导的净化算法(COUP),旨在抑制样本信息损失。实验结果表明,该方法在强攻击下能够显著提升对抗鲁棒性,有效解决了现有方法中样本信息逐渐流失的问题。
通过使用生成模型进行对抗性净化,新的框架语言引导对抗净化(LGAP)利用预训练的扩散模型和字幕生成器来防御对抗性攻击。方法通过生成图像的字幕,利用扩散网络指导对抗性净化过程,提高对抗性鲁棒性。结果表明,LGAP的性能优于现有对抗性防御技术,无需专门网络训练,适用于大规模数据集,为进一步研究提供有希望的方向。