数据炼金术:通过扩散模型净化中毒数据集以缓解后门攻击
💡
原文中文,约200字,阅读约需1分钟。
📝
内容提要
该文章讨论了机器学习系统中数据毒化攻击的问题,并提出了一种防御方法。该方法在MNIST-1-7和Dogfish数据集上表现出较强的防御能力,但在IMDB情感数据集上添加3%的毒化数据会导致测试误差上升至23%。
🎯
关键要点
- 探讨了机器学习系统中的数据毒化攻击问题。
- 提出了一种防御方法,基于数据异常移除和经验风险最小化。
- 在MNIST-1-7和Dogfish数据集上,该防御方法表现出较强的防御能力。
- 在IMDB情感数据集上,添加3%的毒化数据导致测试误差从12%上升至23%。
➡️