本研究从模式连通性视角探讨机器遗忘中的损失景观与优化动态,分析不同遗忘方法及其相互关系,揭示评估指标波动模式及遗忘方法的相似性与差异,为理解机器遗忘提供新思路。
研究发现大型语言模型需要大量重复才能进行逐字记忆,后期的检查点更有可能逐字记忆序列。压力测试发现遗忘方法无法移除逐字记忆的信息,且会降低语言模型质量。这些发现挑战了逐字记忆源自特定模型权重或机制的假设,隔离和阻止逐字记忆将非常困难。
本文介绍了一种新的FL框架FedLU,用于异构的KG嵌入学习和遗忘。通过知识蒸馏处理数据异质性造成的局部优化与全局收敛之间的漂移,并提出了基于认知神经科学的遗忘方法。实验结果表明FedLU在链接预测和知识遗忘方面取得了优秀结果。
完成下面两步后,将自动完成登录并继续当前操作。