继承与蒸馏,对比进化:探索无样本记忆的类别增量语义分割
原文中文,约300字,阅读约需1分钟。发表于: 。本文提出了一种新的方法 Inherit with Distillation and Evolve with Contrast (IDEC),它通过 Dense Knowledge Distillation on all Aspects (DADA) 和 Asymmetric Region-wise Contrastive Learning (ARCL)...
该文介绍了一个两阶段学习框架,解决类增量学习中的灾难性遗忘问题。该方法不依赖于保留旧类别样本,是一种非范例基于的 CIL 方法。实验证明,在公共数据集上,该方法在保留每类 5 个示例和 10 个阶段递增设置下,比最先进的范例基于方法在 CIFAR-100 上提高了 18.24%,在 ImageNet100 上提高了 9.37%。