本研究提出GRAIL框架,旨在解决大规模语言模型中删除敏感信息的高成本和低效率问题。GRAIL通过多域梯度信息精确区分遗忘与保留,采用自适应策略选择性删除知识,同时保持关键参数。实验结果表明,GRAIL在遗忘效果上与现有方法相当,知识保留提升最高17%。
本研究提出了一种新方法LUNAR,旨在降低大规模语言模型训练中的隐私泄露风险。该方法通过重定向未学习数据的表示,显著提升模型的可控性和遗忘效果,测试显示性能提升可达11.7倍。
本研究提出了一种新方法——类感知表示变换(FUCRT),用于解决联邦去遗忘问题。该方法能有效删除特定数据对模型的影响,同时保持模型性能。实验结果表明,FUCRT实现了100%的遗忘效果,提高了去遗忘的效率和有效性。
完成下面两步后,将自动完成登录并继续当前操作。