主题建模中的成员推断攻击和隐私
原文中文,约300字,阅读约需1分钟。发表于: 。最近的研究表明,大型语言模型容易受到侵犯隐私的攻击,推断出训练数据的某些方面。然而,目前尚不清楚是否简单的生成模型(如主题模型)具有类似的弱点。本文提出了一种针对主题模型的攻击方法,可以自信地识别潜在狄利克雷分布中的训练数据成员。我们的结果表明,与生成神经模型相关的隐私风险并不仅限于大型模型。此外,为了减轻这些弱点,我们探讨了差分隐私的主题模型。我们提出了一个框架,将差分隐私词汇选择作为预处...
最近的研究发现,大型语言模型易受隐私攻击,推断出训练数据的某些方面。本文提出了一种针对主题模型的攻击方法,并探讨了差分隐私的主题模型以减轻这些弱点。该方法在保护隐私方面有改进,对实际效用影响较小。