Attention Masks Assist Adversarial Attacks in Bypassing Security Detectors

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本研究提出了一种自适应框架,通过生成注意力掩模,提高对抗攻击的隐蔽性、效率和可解释性,优于现有方法。

🎯

关键要点

  • 本研究提出了一种自适应框架,通过生成注意力掩模,提高对抗攻击的隐蔽性、效率和可解释性。
  • 该框架利用变异可解释人工智能混合和多任务自监督X-UNet生成注意力掩模。
  • 实验结果表明,该系统在隐蔽性、效率和可解释性方面优于现有的PGD、Sparsefool和SINIFGSM方法。
  • 该方法能够有效欺骗最先进的防御分类器。
➡️

继续阅读