可计算的模型无关对抗量子机器学习界限

💡 原文中文,约500字,阅读约需2分钟。
📝

内容提要

云端托管的量子机器学习模型面临模型窃取攻击,研究表明攻击可生成与原模型相似的克隆模型。为防御此类攻击,提出两种方法利用硬件噪声干扰输出,尽管效果有限,但发现经过噪声硬件训练的模型对扰动具有天然抵抗力。

🎯

关键要点

  • 云端托管的量子机器学习模型面临模型窃取攻击。
  • 研究评估了模型窃取攻击在量子计算领域的效果。
  • 实验显示,模型窃取攻击可以生成克隆模型,克隆测试准确率达到原模型的0.9倍和0.99倍。
  • 提出两种防御方法:硬件变化诱发的扰动(HVIP)和硬件与模型结构变化诱发的扰动(HAVIP)。
  • 噪声和架构的可变性提供约16%的输出混淆,但克隆模型在噪声条件下表现出弹性。
  • 在噪声硬件上训练的QML模型对扰动具有天然抵抗力。
➡️

继续阅读