自我监督学习中不可察觉的后门攻击

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本文提出了一种对自我监督学习模型有效且难以察觉的后门攻击方法,并具有强大的抵抗力。

🎯

关键要点

  • 自我监督学习模型容易受到后门攻击。
  • 现有的后门攻击方法通常涉及可察觉的触发机制,如有颜色的补丁。
  • 本文提出了一种难以察觉的后门攻击方法,针对自我监督模型进行优化。
  • 新方法通过设计特定触发机制,使其与增广转换有区分度,难以被人类视觉察觉。
  • 在五个数据集和七个自我监督学习算法上的实验表明,该攻击方式极其有效且隐秘。
  • 新方法对现有后门防御具有很强的抵抗力。
➡️

继续阅读