我们提出了一种新颖的联邦类增量学习方法(FCIL),名为具有新类增强的自我蒸馏(FedNASD)。FedNASD通过将当前模型推断的新类分数与历史模型的预测相结合,在客户端上进行自我蒸馏,实现有效的知识转移。实验表明,FedNASD在降低遗忘率和提高准确性方面优于其他算法。
完成下面两步后,将自动完成登录并继续当前操作。