类别不平等:基于图像识别公平性的实证研究
原文中文,约400字,阅读约需1分钟。发表于: 。这篇论文通过经验研究探讨了图像识别公平性,即在如 ImageNet 这样的平衡数据上出现的极端类别准确度差异。通过实验证明,类别不平等和公平性问题在各种数据集、网络架构和模型容量的图像分类模型中普遍存在。此外,发现了公平性的几个有趣特性,首先,不公平性主要体现在有问题的表示而不是分类器偏见上。其次,通过提出的 “模型预测偏见”...
该论文研究了图像识别公平性,发现不同数据集、网络架构和模型容量的图像分类模型存在类别准确度差异。研究结果显示,不公平性主要体现在问题表示上,而非分类器偏见。模型对于更具挑战性的类别存在更大的预测偏见,导致其准确率较低。通过数据增强和表示学习算法可以促进公平性并提高整体性能。