DSCL:已开源,北京大学提出解耦对比损失 | AAAI 2024 - 晓飞的算法工程笔记
💡
原文中文,约8900字,阅读约需22分钟。
📝
内容提要
本文介绍了一种用于长尾识别的解耦监督对比学习方法,通过解耦正样本并优化它们的关系来减轻数据集不平衡的影响。同时,提出了基于块的自蒸馏方法,将知识从头类转移到尾类,以缓解尾类表征不足的问题。实验结果显示该方法在长尾识别任务中表现出较好的性能。
🎯
关键要点
- 本文提出了一种解耦监督对比学习方法,用于长尾识别,旨在减轻数据集不平衡的影响。
- 解耦正样本并优化其关系,以提高长尾类别的表征能力。
- 提出基于块的自蒸馏方法,将知识从头类转移到尾类,缓解尾类表征不足的问题。
- 监督对比损失(SCL)在长尾识别中存在偏向头类和忽略负样本相似性的缺陷。
- 解耦监督对比损失(DSCL)通过重新制定类内距离优化策略,改善了特征学习的平衡性。
- 基于图像块的自蒸馏(PBSD)利用头类的视觉模式促进尾类的表征学习。
- 实验结果表明,所提方法在长尾识别任务中表现出较好的性能。
➡️