本研究通过知识蒸馏的转移攻击方法,减少神经网络对抗性扰动的查询次数。在有限蒸馏迭代内,证明攻击成功有理论保障,尤其是学生模型学习能力强时。这为对抗攻击提供了新的理论基础。
通过总结现有研究,确定了影响Visual-Language Pre-training模型转移攻击效果的两个因素:跨模态交互和数据多样性。提出了一种新的基于自我增强的转移攻击方法SA-Attack,并在Flickr30K和COCO数据集上验证了其有效性。
该论文研究了深度神经网络的对抗性脆弱性,并提出了一个基于转移的攻击基准来评估和比较不同方法在ImageNet上的有效性。
完成下面两步后,将自动完成登录并继续当前操作。