对抗性智能体:使用强化学习的黑盒规避攻击
📝
内容提要
本研究解决了传统对抗机器学习方法在生成对抗样本时的独立性问题,提出了一种基于强化学习的攻击方法,能够利用过去的攻击经验来提高未来攻击的效果。研究表明,该方法在CIFAR-10数据集上的对抗样本成功率提高了19.4%,并显著减少了每个对抗样本所需的受害模型查询次数,从而展现了强化学习在对抗攻击中的强大潜力。
➡️
本研究解决了传统对抗机器学习方法在生成对抗样本时的独立性问题,提出了一种基于强化学习的攻击方法,能够利用过去的攻击经验来提高未来攻击的效果。研究表明,该方法在CIFAR-10数据集上的对抗样本成功率提高了19.4%,并显著减少了每个对抗样本所需的受害模型查询次数,从而展现了强化学习在对抗攻击中的强大潜力。