具有实例混淆的隐私保护语言模型推断

💡 原文中文,约500字,阅读约需2分钟。
📝

内容提要

研究发现,大型语言模型(LLM)能够推断出个人属性,对用户隐私构成威胁。常用的隐私保护措施无效,需要更广泛的讨论和更有效的隐私保护措施。

🎯

关键要点

  • 当前隐私研究主要集中在大型语言模型(LLM)提取训练数据的问题上。
  • LLM 的推论能力已大幅增强,可能侵犯个人隐私。
  • 本研究是关于预训练 LLM 从文本中推断个人属性能力的首个全面研究。
  • 构建了一个由真实 Reddit 个人资料组成的数据集,展示 LLM 能推断广泛的个人属性。
  • LLM 在成本和时间上达到了高达 85% 的 top-1 准确率和 95.8% 的 top-3 准确率。
  • 探讨了通过似乎无害的问题提取个人信息的侵犯隐私聊天机器人的新威胁。
  • 普遍采用的缓解措施,如文本匿名化和模型对齐,对保护用户隐私无效。
  • 研究结果表明,当前 LLM 能以以前无法想象的规模推断个人数据。
  • 在缺乏有效防御措施的情况下,呼吁就 LLM 隐私影响展开更广泛的讨论。
➡️

继续阅读