DSCL:已开源,北京大学提出解耦对比损失 | AAAI 2024 - 晓飞的算法工程笔记
原文中文,约8900字,阅读约需22分钟。发表于: 。监督对比损失(SCL)在视觉表征学习中很流行。但在长尾识别场景中,由于每类样本数量不平衡,对两类正样本进行同等对待会导致类内距离的优化出现偏差。此外,SCL忽略了负样本之间的相似关系的语义线索。为了提高长尾识别的性能,论文通过解耦训练目标来解决SCL的这两个问题,将SCL中的原正样本和增强正样本解耦
本文介绍了一种用于长尾识别的解耦监督对比学习方法,通过解耦正样本并优化它们的关系来减轻数据集不平衡的影响。同时,提出了基于块的自蒸馏方法,将知识从头类转移到尾类,以缓解尾类表征不足的问题。实验结果显示该方法在长尾识别任务中表现出较好的性能。