Attention Masks Assist Adversarial Attacks in Bypassing Security Detectors
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究提出了一种自适应框架,通过生成注意力掩模,提高对抗攻击的隐蔽性、效率和可解释性,优于现有方法。
🎯
关键要点
- 本研究提出了一种自适应框架,通过生成注意力掩模,提高对抗攻击的隐蔽性、效率和可解释性。
- 该框架利用变异可解释人工智能混合和多任务自监督X-UNet生成注意力掩模。
- 实验结果表明,该系统在隐蔽性、效率和可解释性方面优于现有的PGD、Sparsefool和SINIFGSM方法。
- 该方法能够有效欺骗最先进的防御分类器。
➡️