旋转增强蒸馏的免样例类增量学习与详细分析
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本研究提出了一种无样例设置下的Class incremental learning方法,名为Rotation Augmented Distillation (RAD),通过只对新类进行监督来平衡可塑性和稳定性。实验证明RAD在无样例设置下表现接近顶级水平,并与现有方法进行了比较。
🎯
关键要点
-
本研究提出了一种无样例设置下的Class incremental learning方法,名为Rotation Augmented Distillation (RAD)。
-
RAD通过只对新类进行监督来平衡可塑性和稳定性。
-
实验证明RAD在无样例设置下表现接近顶级水平。
-
研究中对不同方法进行了详细对比及指标衡量。
-
在更具挑战性的无样例设置下,进行了更多的实证和与现有方法的比较。
➡️