Improving the Transferability of Adversarial Examples through Inverse Knowledge Distillation

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本研究提出了一种逆知识蒸馏(IKD)方法,旨在解决对抗攻击算法在目标与源模型间转移性不足的问题。通过引入新损失函数,IKD显著提高了对抗样本在黑箱攻击中的有效性和成功率,实验结果表明IKD有效增强了对抗样本的转移性。

🎯

关键要点

  • 本研究提出了一种逆知识蒸馏(IKD)方法,旨在解决对抗攻击算法在目标与源模型间转移性不足的问题。
  • IKD通过引入新损失函数,显著提高了对抗样本在黑箱攻击中的有效性和成功率。
  • 实验结果表明,IKD有效增强了对抗样本的转移性。
➡️

继续阅读