基于伪随机数生成器的模型后门攻击
💡
原文中文,约3300字,阅读约需8分钟。
📝
内容提要
随机平滑是一种增强机器学习模型鲁棒性的方法,但攻击者可以利用其随机性进行后门攻击。本文提出两种攻击方式:简单攻击通过替换噪声分布,位翻转攻击则通过微调随机数生成器的位数,导致预测置信度严重失真。这表明现有防御措施无法有效应对复杂攻击,需加强对随机性来源的信任与防护。
🎯
关键要点
- 随机平滑是一种增强机器学习模型鲁棒性的方法。
- 攻击者可以利用随机平滑的随机性进行后门攻击。
- 简单攻击通过替换噪声分布来实现,位翻转攻击则通过微调随机数生成器的位数。
- 现有防御措施无法有效应对复杂攻击,需加强对随机性来源的信任与防护。
- 对抗样本是机器学习模型在特定扰动下的鲁棒性问题。
- 随机平滑通过添加噪声生成多个扰动样本,提高模型鲁棒性。
- 随机性在对抗性机器学习中扮演重要角色,影响攻击和防御。
- 伪随机数生成器(PRNG)依赖确定性计算生成可预测的数字序列。
- 线性同余法是目前最流行的随机数生成器,影响生成器性能的因素包括模量、乘法器和增量。
➡️