探索未学习的扩散模型:可转移的对抗攻击视角
原文中文,约300字,阅读约需1分钟。发表于: 。針對高級文字到圖像擴散模型在身份隱私侵犯、版權侵犯和不宜上班的內容生成方面引起的安全問題,本文旨在利用對抗攻擊的可轉移性來探測黑盒情景下的不學習強健性。
该研究提出了Adv-Diffusion框架,生成不可察觉的对抗性身份扰动。通过身份敏感条件扩散生成模型,设计了自适应强度的对抗性扰动算法。在FFHQ和CelebA-HQ数据集上实验,证明了该方法的卓越性能。
針對高級文字到圖像擴散模型在身份隱私侵犯、版權侵犯和不宜上班的內容生成方面引起的安全問題,本文旨在利用對抗攻擊的可轉移性來探測黑盒情景下的不學習強健性。
该研究提出了Adv-Diffusion框架,生成不可察觉的对抗性身份扰动。通过身份敏感条件扩散生成模型,设计了自适应强度的对抗性扰动算法。在FFHQ和CelebA-HQ数据集上实验,证明了该方法的卓越性能。