本研究提出了一种新颖的白盒攻击方法,针对视觉物体跟踪器的局限性,通过边界框攻击变换器骨干网络。实验证明该方法在多个变换器跟踪器上表现优越,验证了其有效性。
研究提出了一种名为sparse-PGD的白盒攻击方法,用于在$l_0$范数约束下生成稀疏对抗扰动。结合黑盒攻击评估模型鲁棒性,并用于对抗性训练提升模型抗扰能力。实验显示,sparse-PGD在不同场景中表现出色,训练的模型对稀疏攻击具有最新鲁棒性。
本研究探讨了合成语音检测器在遭遇恶意攻击时的不足,尤其是在音频转码、播放或背景噪音情况下性能下降的问题。通过分析白盒和黑盒攻击,揭示了现有检测方法的脆弱性,并呼吁开发更强健的检测技术以应对不断变化的威胁。
本文介绍了一种名为MGAA的新型结构,通过元学习思想提高跨模型的传递性。实验结果表明,该结构在黑盒和白盒攻击设置方面优于现有方法。
该研究提出了一个高度转移的对抗性攻击框架,核心是一个可生成网络,能够实现领域不变的扰动。该方法在白盒和黑盒情况下均创新了欺骗率的最佳性能,并且优于传统的实例特定攻击方法。
完成下面两步后,将自动完成登录并继续当前操作。