本研究发现一种新形式的成员推断攻击,使对手能够可靠地取消识别所有训练样本,并且被攻击的模型仍然保持与未受损对照模型相当的性能。研究揭示了成员隐私泄漏的最坏情况,并指出了现有隐私审核方法的一个常见问题。需要重新思考机器学习模型中的隐私审核实践。
完成下面两步后,将自动完成登录并继续当前操作。