通过私有化联合编辑增强大型语言模型的数据隐私
原文中文,约400字,阅读约需1分钟。发表于: 。利用私有关联编辑(Private Association Editing,PAE)的方法,本研究针对大型语言模型(Large Language Models,LLMs)的私人数据泄露问题进行了防御,在不重新训练模型的情况下,有效地移除个人可识别信息(Personally Identifiable Information,PII)。通过四个步骤的程序,包括检测存储的 PII、使用 PAE...
本研究探索了差分隐私在自然语言处理中混合专家模型训练中的整合,通过对大规模语言模型进行训练,解决了计算和隐私问题。实验结果表明,差分隐私有效训练了混合专家模型,并具有竞争力的性能。该研究为隐私保护的混合专家模型领域提供了洞察力和基础。