本文介绍了一种名为CG-MI的置信度引导模型反演攻击方法,利用预训练的GAN的潜在空间和无梯度优化器,在不同数据分布的黑盒设置中实现了高分辨率的模型反演攻击。该方法在Celeba和Facescrub的不同分布设置中,比SOTA黑盒MIA的攻击效果提高了超过49%和58%。此外,该方法能够生成与白盒攻击产生的高质量图像相当的图像。该方法为黑盒模型反演攻击提供了实用而有效的解决方案。
本文提出了一种名为CG-MI的置信度引导模型反演攻击方法,利用预训练的GAN的潜在空间和无梯度优化器,在不同数据分布的黑盒设置中实现了高分辨率的模型反演攻击。实验证明,该方法在Celeba和Facescrub的不同分布设置中,比SOTA黑盒MIA的攻击效果提高了超过49%和58%。此外,该方法能够生成与白盒攻击产生的高质量图像相当的图像。该方法为黑盒模型反演攻击提供了实用而有效的解决方案。
本文提出了一种称为CG-MI的置信度引导模型反演攻击方法,利用预训练的GAN的潜在空间和无梯度优化器,在不同数据分布的黑盒设置中实现了高分辨率的模型反演攻击。实验证明,该方法在Celeba和Facescrub的不同分布设置中,比SOTA黑盒MIA的攻击效果提高了超过49%和58%。此外,该方法能够生成与白盒攻击产生的质量相当的高质量图像。该方法为黑盒模型反演攻击提供了实用而有效的解决方案。
深度神经网络在自动驾驶等安全关键场景中广泛使用,但受到对抗样本的威胁。对抗攻击可分为白盒和黑盒,目的可分为有目标和非有目标。黑盒设置是实践中常遇到的情况。
完成下面两步后,将自动完成登录并继续当前操作。