机器学习系统中的隐私侧信道
原文中文,约500字,阅读约需1分钟。发表于: 。通过引入隐私侧信道攻击,本研究揭示了当前保护机器学习隐私的方法假设模型存在于真空中,然而事实上,机器学习模型是包含用于训练数据过滤、输出监测等组件的更大系统的一部分。文中提出了四类隐私侧信道攻击,涵盖了整个机器学习生命周期,可以用于增强成员推断攻击或者进行提取用户测试查询等新颖威胁。通过实例展示,文中指出在应用差分隐私训练之前对训练数据进行去重造成了一种侧信道攻击,完全破坏了任何可证明的隐私...
本研究揭示了保护机器学习隐私的方法存在的问题,并提出了四类攻击。研究发现,去重训练数据会破坏隐私保护保证,阻止语言模型再生成训练数据的系统可以被利用来重构私钥。需要进行全面的机器学习隐私分析。