Delayed Poisoning: Increasing Model Vulnerability through Hessian Singularization
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本文提出了一种新的毒化攻击方式——延迟毒化攻击,针对深度学习模型的脆弱性。该方法在训练和验证阶段表现正常,但对规避攻击和自然噪声极为敏感,显著降低了模型的鲁棒性。
🎯
关键要点
-
提出了一种新的毒化攻击方式——延迟毒化攻击。
-
该方法使深度学习模型在训练和验证阶段表现正常。
-
模型对规避攻击和自然噪声极为敏感。
-
显著降低了模型的鲁棒性。
-
研究通过单一Hessian信息提供了毒化攻击的隐蔽性和影响的新视角。
➡️