像素并非障碍:针对像素域扩散模型的有效规避攻击

💡 原文中文,约500字,阅读约需1分钟。
📝

内容提要

研究发现了一种名为“自然去噪扩散攻击(NDD)”的新型攻击,可以以低成本且与模型无关的方式对深度神经网络模型进行攻击。研究通过构建“自然去噪扩散攻击(NDDA)数据集”来评估该攻击的风险,并证实了其有效性。研究还发现,扩散模型中的非稳健特征对攻击能力起到了贡献作用。希望该研究能够引起社区对扩散模型风险的关注,并推动更多关于深度神经网络模型的研究。

阅读原文 分享