机器学习模型中的数据更新信息泄露
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
该研究发现,机器学习模型在更新数据集后重新训练时容易受到属性推理攻击的威胁,尤其是对于罕见属性值的数据记录。攻击方法基于置信度差异。
🎯
关键要点
- 研究关注机器学习模型在更新数据集后重新训练的情况。
- 调查是否可以从训练数据中推断出更新的信息。
- 提出基于原始模型和更新模型之间预测置信度差异的攻击方法。
- 通过两个公共数据集和多层感知器及逻辑回归模型验证攻击方法。
- 发现模型的两个快照相对于仅访问更新后的模型会导致更高的信息泄漏。
- 罕见属性值的数据记录更容易受到攻击,显示出更新环境下隐私攻击的脆弱性。
- 当多个记录更新为相同的新值时,攻击者更可能正确猜测更新后的值。
- 这些观察结果表明机器学习模型在更新环境下容易受到属性推理攻击的威胁。
➡️