长尾学习作为多目标优化
原文约200字/词,阅读约需1分钟。发表于: 。通过多目标优化,我们提出一种梯度平衡聚类(GBG)策略,以应对现实世界数据中的类别不平衡和长尾分布问题,并在长尾学习中展现出比现有方法更优越的性能。
本文提出了一种解决长尾大词汇物体检测低效性问题的解决方案——基于组内平衡 Softmax(BAGS)。该方法通过分组培训平衡分类器,显著提高检测器的性能,并在最新的 LVIS 检测基准数据集上实现了新的最佳结果。
通过多目标优化,我们提出一种梯度平衡聚类(GBG)策略,以应对现实世界数据中的类别不平衡和长尾分布问题,并在长尾学习中展现出比现有方法更优越的性能。
本文提出了一种解决长尾大词汇物体检测低效性问题的解决方案——基于组内平衡 Softmax(BAGS)。该方法通过分组培训平衡分类器,显著提高检测器的性能,并在最新的 LVIS 检测基准数据集上实现了新的最佳结果。