通过去偏置高置信度对数值对齐实现对抗鲁棒性

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本研究提出了DHAT对抗训练方法,通过调整对抗样本的数值,增强模型的鲁棒性。实验结果显示DHAT在多个视觉数据集上表现出色。

🎯

关键要点

  • 本研究提出了一种新的对抗训练方法——去偏置高置信度对抗训练(DHAT)。
  • DHAT通过调整对抗样本的对数值,使其与去偏置的高置信度对数值对齐。
  • 该方法旨在恢复模型的注意力到正常状态。
  • 实验结果表明,DHAT在多个视觉数据集上表现出色。
  • DHAT增强了模型的鲁棒性。
➡️

继续阅读