增长图中的渐进学习的整体记忆多样化
💡
原文中文,约500字,阅读约需2分钟。
📝
内容提要
基于内存回放技术的研究取得成功,但在扩大的图表中会导致内存爆炸问题。为解决此问题,提出了参数独立的图神经网络与拓扑感知嵌入记忆的框架。该框架降低了内存空间复杂性,并利用拓扑信息进行内存回放。实证研究表明,该框架在类增量设置中优于最先进技术。
🎯
关键要点
- 基于内存回放技术的研究在增量学习中取得成功。
- 直接应用于扩大的图表会导致内存爆炸问题。
- 提出了参数独立的图神经网络(PDGNNs)与拓扑感知嵌入记忆(TEM)框架。
- 该框架将内存空间复杂性降低到 O(n)。
- PDGNNs通过拓扑感知嵌入将自我子图压缩为紧凑的向量以减少内存消耗。
- 发现了在扩大的图表上连续学习中的伪训练效应。
- 开发了一种新的覆盖率最大化采样策略以提高性能。
- 实证研究表明,PDGNNs与TEM在类增量设置中优于最先进技术。
➡️