重新平衡多标签类增量学习
原文中文,约300字,阅读约需1分钟。发表于: 。该研究针对现有多标签类增量学习(MLCIL)方法中存在的正负标签不平衡问题进行了探讨,提出了一种新颖的Rebalance框架(RebLL)。通过引入非对称知识蒸馏和在线重标记模块,该方法在标签和损失层面重新平衡,显著提升了模型性能,在PASCAL VOC和MS-COCO数据集上取得了前所未有的效果。
我们提出了一种新的多级分级类增量任务配置,通过多级分层标签扩展的在线学习约束,能够在所有层次的分层结构中显著提高分类准确性,并在传统的不相交、模糊和i-Blurry的连续学习设置上也优于现有的最先进方法。