增长图中的渐进学习的整体记忆多样化

💡 原文中文,约500字,阅读约需2分钟。
📝

内容提要

基于内存回放技术的研究取得成功,但在扩大的图表中会导致内存爆炸问题。为解决此问题,提出了参数独立的图神经网络与拓扑感知嵌入记忆的框架。该框架降低了内存空间复杂性,并利用拓扑信息进行内存回放。实证研究表明,该框架在类增量设置中优于最先进技术。

🎯

关键要点

  • 基于内存回放技术的研究在增量学习中取得成功。
  • 直接应用于扩大的图表会导致内存爆炸问题。
  • 提出了参数独立的图神经网络(PDGNNs)与拓扑感知嵌入记忆(TEM)框架。
  • 该框架将内存空间复杂性降低到 O(n)。
  • PDGNNs通过拓扑感知嵌入将自我子图压缩为紧凑的向量以减少内存消耗。
  • 发现了在扩大的图表上连续学习中的伪训练效应。
  • 开发了一种新的覆盖率最大化采样策略以提高性能。
  • 实证研究表明,PDGNNs与TEM在类增量设置中优于最先进技术。
➡️

继续阅读