大型语言模型是否受到成员推断攻击的影响?
原文中文,约2600字,阅读约需7分钟。发表于: 。成员推理攻击的大规模评估发现在多种设置中,大型语言模型的预训练数据上的成员推理攻击表现较差,主要原因是庞大数据集和较少训练迭代之间的结合,以及成员和非成员之间存在模糊的边界。我们识别出特定的设置,这些设置中语言模型易受成员推理攻击影响,并证明这种成功可以归因于分布变化,例如成员和非成员从看似相同的领域,但具有不同的时间范围。我们提供了代码和数据,形成了一个统一的基准测试套件,包括所有现有的成...
该研究探讨了成员推理攻击(MIA)对大型语言模型的影响。结果显示,由于数据集庞大且训练迭代次数较少,大型语言模型在预训练数据上的成员推理攻击表现较差。研究还发现了一些易受成员推理攻击影响的特定设置,并提供了代码和数据以支持未来的研究工作。