谁是哈利・波特?在 LLMs 中的近似遗忘
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
研究发现,大型语言模型(LLMs)可能会泄露训练数据、预训练数据和个人可识别信息(PII),给使用LLMs的公司带来了隐私和法律问题。研究呼吁跨学科讨论和政策制定。
🎯
关键要点
- 大型语言模型(LLMs)可能会泄露训练数据和个人可识别信息(PII)。
- 研究表明,精调模型不仅泄露训练数据,还会泄露预训练阶段的记忆数据和PII。
- 精调模型的遗忘和泄露使得新的数据点容易被提取。
- 使用LLMs的公司面临重大的隐私和法律问题。
- 研究呼吁在人工智能和法律界进行跨学科讨论,并制定相应政策。
➡️