该研究提出了原型增强超网络(PAH)框架,以解决持续学习中的灾难性遗忘问题。实验结果显示,PAH在Split-CIFAR100和TinyImageNet上的准确率分别为74.5%和63.7%,且遗忘率显著低于传统方法。
该研究提出了一种可控遗忘机制,解决了少样本类增量学习中适应新类别与保持原有类别性能的矛盾。通过新类别检测规则(NCD),该机制显著提高了新类别的准确率,并有效控制了原有类别的遗忘率。
我们提出了一种新颖的联邦类增量学习方法(FCIL),名为具有新类增强的自我蒸馏(FedNASD)。FedNASD通过将当前模型推断的新类分数与历史模型的预测相结合,在客户端上进行自我蒸馏,实现有效的知识转移。实验表明,FedNASD在降低遗忘率和提高准确性方面优于其他算法。
完成下面两步后,将自动完成登录并继续当前操作。