LLM 是否能保守秘密?通过上下文完整理论测试语言模型的隐私影响
💡
原文中文,约500字,阅读约需2分钟。
📝
内容提要
本研究使用真实Reddit个人资料构建数据集,证明了预训练语言模型(LLM)能够推断出个人隐私信息,包括地点、收入和性别等。研究还探讨了通过聊天机器人提取个人信息的新威胁,并证明了文本匿名化和模型对齐等缓解措施对保护用户隐私无效。
🎯
关键要点
- 当前隐私研究集中在大型语言模型(LLM)提取训练数据的问题上。
- 研究探讨了LLM是否能通过推断侵犯个人隐私。
- 构建了由真实Reddit个人资料组成的数据集,展示LLM推断个人属性的能力。
- LLM在推断地点、收入、性别等个人属性时,达到了85%的top-1准确率和95.8%的top-3准确率。
- 研究探讨了通过聊天机器人提取个人信息的新威胁。
- 文本匿名化和模型对齐等缓解措施对保护用户隐私无效。
- 研究结果表明LLM能够以大规模推断个人数据,缺乏有效防御措施。
- 呼吁就LLM隐私影响展开更广泛的讨论,以实现更好的隐私保护。
➡️