谁是哈利・波特?在 LLMs 中的近似遗忘

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

研究发现,大型语言模型(LLMs)可能会泄露训练数据、预训练数据和个人可识别信息(PII),给使用LLMs的公司带来了隐私和法律问题。研究呼吁跨学科讨论和政策制定。

🎯

关键要点

  • 大型语言模型(LLMs)可能会泄露训练数据和个人可识别信息(PII)。
  • 研究表明,精调模型不仅泄露训练数据,还会泄露预训练阶段的记忆数据和PII。
  • 精调模型的遗忘和泄露使得新的数据点容易被提取。
  • 使用LLMs的公司面临重大的隐私和法律问题。
  • 研究呼吁在人工智能和法律界进行跨学科讨论,并制定相应政策。
➡️

继续阅读