通过离开一个样本集合在语言模型中遗忘私密文本序列
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
研究发现,大型语言模型(LLMs)可能会泄露训练数据、预训练数据和个人可识别信息(PII),给使用LLMs的公司带来了隐私和法律问题。该研究呼吁跨学科讨论和政策制定。
🎯
关键要点
-
大型语言模型(LLMs)可能会泄露训练数据和个人可识别信息(PII)。
-
现有研究对LLMs的隐私问题关注度较低。
-
精调模型不仅泄露训练数据,还可能泄露预训练阶段的预训练数据和PII。
-
精调模型使得新的数据点容易被提取,增加了隐私和法律风险。
-
研究呼吁在人工智能和法律领域进行跨学科讨论,并制定相关政策。
➡️