KnFu: 有效的知识融合

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

本文介绍了一种新的FL框架FedLU,用于异构的KG嵌入学习和遗忘。通过知识蒸馏处理数据异质性造成的局部优化与全局收敛之间的漂移,并提出了基于认知神经科学的遗忘方法。实验结果表明FedLU在链接预测和知识遗忘方面取得了优秀结果。

🎯

关键要点

  • 提出了一种新的FL框架——FedLU,用于异构的KG嵌入学习和遗忘。
  • 利用知识蒸馏处理数据异质性造成的局部优化与全局收敛之间的漂移。
  • 提出了一种基于认知神经科学的遗忘方法,结合逆行干扰和被动衰减。
  • 通过重用知识蒸馏从本地客户端中抹除特定知识并传播到全局模型。
  • 实验结果表明FedLU在链接预测和知识遗忘方面取得了优秀结果。
➡️

继续阅读