Improving the Transferability of Adversarial Examples through Inverse Knowledge Distillation
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究提出了一种逆知识蒸馏(IKD)方法,旨在解决对抗攻击算法在目标与源模型间转移性不足的问题。通过引入新损失函数,IKD显著提高了对抗样本在黑箱攻击中的有效性和成功率,实验结果表明IKD有效增强了对抗样本的转移性。
🎯
关键要点
- 本研究提出了一种逆知识蒸馏(IKD)方法,旨在解决对抗攻击算法在目标与源模型间转移性不足的问题。
- IKD通过引入新损失函数,显著提高了对抗样本在黑箱攻击中的有效性和成功率。
- 实验结果表明,IKD有效增强了对抗样本的转移性。
➡️