探索未学习的扩散模型:可转移的对抗攻击视角
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
该研究提出了Adv-Diffusion框架,生成不可察觉的对抗性身份扰动。通过身份敏感条件扩散生成模型,设计了自适应强度的对抗性扰动算法。在FFHQ和CelebA-HQ数据集上实验,证明了该方法的卓越性能。
🎯
关键要点
- 提出了Adv-Diffusion框架,用于生成不可察觉的对抗性身份扰动。
- 利用潜在扩散模型生成逼真的对抗性图像,确保攻击的可传递性和隐秘性。
- 设计了自适应强度的对抗性扰动算法,针对身份敏感条件进行语义扰动。
- 在FFHQ和CelebA-HQ数据集上进行了广泛的实验,证明了该方法的卓越性能。
- 该方法无需额外的生成模型训练过程,源代码可公开获取。
➡️