本文调查了计算机视觉模型中的社会偏见,并提出了一个社会技术框架,用于评估计算机视觉模型的性能和社会公平考虑。研究发现GPT-4 Vision在性别分类方面准确性较高,但存在歧视性偏见。此外,该模型的情绪检测偏向积极情绪,并对不同性别的图像有明显偏见。研究强调了开发全面评估标准的必要性,以解决计算机视觉模型中的有效性和歧视性偏见。该研究提供了一个框架,以批判性地评估计算机视觉工具,确保其在应用中具有道德性和有效性。
本文提出了一种基于 ImageNet 和 Places365 的全面评估标准,用于检测训练集中不同分布的样本。实验结果表明,不同的ODD检测技术在不同的评估标准下的有效性不同。基于置信度的技术可能优于基于分类器的技术。
完成下面两步后,将自动完成登录并继续当前操作。