Delayed Poisoning: Increasing Model Vulnerability through Hessian Singularization

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本文提出了一种新的毒化攻击方式——延迟毒化攻击,针对深度学习模型的脆弱性。该方法在训练和验证阶段表现正常,但对规避攻击和自然噪声极为敏感,显著降低了模型的鲁棒性。

🎯

关键要点

  • 提出了一种新的毒化攻击方式——延迟毒化攻击。

  • 该方法使深度学习模型在训练和验证阶段表现正常。

  • 模型对规避攻击和自然噪声极为敏感。

  • 显著降低了模型的鲁棒性。

  • 研究通过单一Hessian信息提供了毒化攻击的隐蔽性和影响的新视角。

➡️

继续阅读