带有重新平衡的对比损失的长尾学习
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
通过使用RCL方法解决长尾学习问题,提供了对BCL框架的丰富嵌入和更高准确度。RCL作为独立损失函数,实现了与最先进方法相当的准确度水平。
🎯
关键要点
- 通过将受监督的对比损失整合到基于交叉熵的通信中,解决了长尾学习问题。
- 使用 Rebalanced Contrastive Learning (RCL) 方法提高长尾分类准确度。
- RCL 实现了特征空间均衡、类内紧凑性和正则化等关键方面。
- 在 Balanced Contrastive Learning (BCL) Framework 中实施 RCL。
- 实验结果表明 RCL 提供了对 BCL 框架的丰富嵌入和更高的准确度。
- RCL 作为独立损失函数,实现了与最先进方法相当的准确度水平。
➡️