该研究调查了机器学习模型在更新数据集后的脆弱性,发现访问两个模型快照会导致更高的信息泄漏。罕见属性值的数据记录更容易受到攻击,重复更改会在训练模型上留下更大的痕迹。这些结果表明机器学习模型在更新环境下容易受到属性推理攻击的威胁。
该研究发现,机器学习模型在更新数据集后重新训练时容易受到属性推理攻击的威胁,尤其是对于罕见属性值的数据记录。攻击方法基于置信度差异。
完成下面两步后,将自动完成登录并继续当前操作。