本研究调查了计算机视觉模型中的性别和情绪自动检测的社会偏见,并提出了社会技术框架来评估模型的性能和公平性。研究发现GPT-4 Vision在性别分类方面准确性高,但存在对跨性别和非二元人格的歧视性偏见。此外,情绪检测也存在偏见。研究强调了开发全面评估标准的必要性,以解决计算机视觉模型中的有效性和歧视性偏见。
完成下面两步后,将自动完成登录并继续当前操作。