像素并非障碍:针对像素域扩散模型的有效规避攻击
原文中文,约500字,阅读约需1分钟。发表于: 。本研究解决了像素域扩散模型遭受恶意编辑风险的问题,提出了一种新的攻击框架,通过特征表示攻击损失来利用去噪UNet的脆弱性,并采用潜在优化策略提升受保护图像的自然性。实验表明,该方法在攻击主流的PDM编辑方法时保持了合理的保护保真度,并对常见防御方法展现出强健性,且适用于LDMs。
研究发现了一种名为“自然去噪扩散攻击(NDD)”的新型攻击,可以以低成本且与模型无关的方式对深度神经网络模型进行攻击。研究通过构建“自然去噪扩散攻击(NDDA)数据集”来评估该攻击的风险,并证实了其有效性。研究还发现,扩散模型中的非稳健特征对攻击能力起到了贡献作用。希望该研究能够引起社区对扩散模型风险的关注,并推动更多关于深度神经网络模型的研究。