外貌歧视:计算机视觉中的被忽视偏见
原文中文,约600字,阅读约需2分钟。发表于: 。本研究针对计算机视觉中的外貌歧视这一被忽视的偏见,探讨其对公平性和包容性的影响。论文通过文献综述和用户研究,识别出外貌歧视与计算机视觉的三大交集领域,呼吁采用跨学科的方法,推动构建尊重人类外观多样性的公平计算机视觉系统。
本文调查了计算机视觉模型中的社会偏见,并提出了一个社会技术框架,用于评估计算机视觉模型的性能和社会公平考虑。研究发现GPT-4 Vision在性别分类方面准确性较高,但存在对跨性别和非二元人格的偏见。此外,该模型的情绪检测偏向积极情绪,尤其是在男性人格的提示下。研究强调了开发更全面的评估标准以解决计算机视觉模型中的有效性和歧视性偏见的必要性。该研究提供了一个框架,以批判性地评估计算机视觉工具的道德性和有效性。