黑箱内部:检测预训练语言编码器中的数据泄露
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
通过隐私后门攻击,模型受到后门影响会导致训练数据隐私泄露率显著增加。实验证明了这种攻击的广泛适用性和有效性,呼吁重新评估使用开源预训练模型的安全协议。
🎯
关键要点
- 利用小型专用数据集微调大型预训练模型是常见做法。
- 隐私后门攻击是一种新的漏洞,导致训练数据隐私泄露率显著增加。
- 实验证明了隐私后门攻击的广泛适用性和有效性。
- 进行了多次消融研究以分析隐私后门攻击的新威胁。
- 研究结果强调了机器学习社区的重要隐私问题。
- 呼吁重新评估使用开源预训练模型的安全协议。
➡️