具有新类增强式自蒸馏的联邦增量学习
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
我们提出了一种新颖的联邦类增量学习方法(FCIL),名为具有新类增强的自我蒸馏(FedNASD)。FedNASD通过将当前模型推断的新类分数与历史模型的预测相结合,在客户端上进行自我蒸馏,实现有效的知识转移。实验表明,FedNASD在降低遗忘率和提高准确性方面优于其他算法。
🎯
关键要点
- 提出了一种新颖的联邦类增量学习方法(FCIL),命名为具有新类增强的自我蒸馏(FedNASD)。
- FedNASD通过将当前模型推断的新类分数与历史模型的预测相结合,实现有效的知识转移。
- 理论分析表明,在没有新类的情况下,FedNASD等效地对旧类分数建模为条件概率。
- FedNASD通过将新类的预测与当前模型相结合,修正历史得分的条件概率。
- 实验结果显示,FedNASD在降低平均遗忘率和提高全局准确性方面优于其他四种基准算法。
➡️