Adv-Diffusion: 通过潜在扩散模型实施难以察觉的敌对人脸身份攻击
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
该研究提出了Adv-Diffusion框架,生成不可察觉的对抗性身份扰动。通过身份敏感条件扩散生成模型,设计了自适应强度的对抗性扰动算法。在FFHQ和CelebA-HQ数据集上实验证明了该方法的卓越性能。
🎯
关键要点
- 该研究提出了Adv-Diffusion框架,生成不可察觉的对抗性身份扰动。
- 利用潜在扩散模型的强大修补能力,在潜在空间生成逼真的对抗性图像。
- 设计了自适应强度的对抗性扰动算法,确保攻击的可传递性和隐秘性。
- 在FFHQ和CelebA-HQ数据集上进行了广泛的定性和定量实验,证明了该方法的卓越性能。
- 该方法无需额外的生成模型训练过程,源代码可在链接中获取。
➡️