带有重新平衡的对比损失的长尾学习

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

通过使用RCL方法解决长尾学习问题,提供了对BCL框架的丰富嵌入和更高准确度。RCL作为独立损失函数,实现了与最先进方法相当的准确度水平。

🎯

关键要点

  • 通过将受监督的对比损失整合到基于交叉熵的通信中,解决了长尾学习问题。
  • 使用 Rebalanced Contrastive Learning (RCL) 方法提高长尾分类准确度。
  • RCL 实现了特征空间均衡、类内紧凑性和正则化等关键方面。
  • 在 Balanced Contrastive Learning (BCL) Framework 中实施 RCL。
  • 实验结果表明 RCL 提供了对 BCL 框架的丰富嵌入和更高的准确度。
  • RCL 作为独立损失函数,实现了与最先进方法相当的准确度水平。
🏷️

标签

➡️

继续阅读