本研究探讨大型语言模型在代码生成中的隐私风险,并提出机器遗忘作为解决方案。评估了三种遗忘算法在LLMs4Code上的有效性,结果表明这些算法能降低隐私风险,同时保持代码生成能力。研究强调未来研究的重要性。
本研究提出了一种新的保留度量和有效的遗忘算法,以解决文本到图像扩散模型在遗忘特定训练数据时对模型完整性的影响,优于现有方法。
本研究提出了新的基准测试框架MLLMU-Bench,以解决多模态大语言模型在隐私保护方面的不足。研究表明,单模态遗忘算法在生成和填空任务中表现优异,而多模态遗忘方法在分类任务中更为有效。
机器遗忘是一个重要问题,旨在消除特定数据对模型性能的影响,同时保持模型的实用性。通过对抗角度进行最坏情况遗忘子集的识别,我们提出了一种新的机器遗忘评估方法,通过双层优化原则在上层放大遗忘挑战,在下层进行标准训练和遗忘,实现数据影响擦除和模型实用性之间的平衡。我们的研究揭示了机器遗忘在实践中的复杂挑战,指导未来更准确、更鲁棒的遗忘算法的发展。
大规模语言模型训练数据可能记忆和复制敏感数据,引发法律和伦理担忧。为保护个人数据,提出TOFU作为遗忘基准,评估现有遗忘算法并指出需要继续开发能真正使模型忘却数据的方法。
完成下面两步后,将自动完成登录并继续当前操作。