探索未学习的扩散模型:可转移的对抗攻击视角

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

该研究提出了Adv-Diffusion框架,生成不可察觉的对抗性身份扰动。通过身份敏感条件扩散生成模型,设计了自适应强度的对抗性扰动算法。在FFHQ和CelebA-HQ数据集上实验,证明了该方法的卓越性能。

🎯

关键要点

  • 提出了Adv-Diffusion框架,用于生成不可察觉的对抗性身份扰动。
  • 利用潜在扩散模型生成逼真的对抗性图像,确保攻击的可传递性和隐秘性。
  • 设计了自适应强度的对抗性扰动算法,针对身份敏感条件进行语义扰动。
  • 在FFHQ和CelebA-HQ数据集上进行了广泛的实验,证明了该方法的卓越性能。
  • 该方法无需额外的生成模型训练过程,源代码可公开获取。
➡️

继续阅读