本文调查了计算机视觉模型中的社会偏见,并提出了一个社会技术框架,用于评估计算机视觉模型的性能和社会公平考虑。研究发现GPT-4 Vision在性别分类方面准确性较高,但存在歧视性偏见。此外,该模型的情绪检测偏向积极情绪,并对不同性别的图像有明显偏见。研究强调了开发全面评估标准的必要性,以解决计算机视觉模型中的有效性和歧视性偏见。该研究提供了一个框架,以批判性地评估计算机视觉工具,确保其在应用中具有道德性和有效性。
研究发现,基于对话的语言模型ChatGPT中的亵渎问题会因为分配假想人物角色而增加,存在歧视性偏见。研究呼吁人工智能社区重新思考安全防护措施,开发更好的技术,实现强大、安全和值信赖任的AI系统。
研究发现,基于对话的语言模型ChatGPT中的亵渎问题存在歧视性偏见,为其分配假想角色会增加亵渎程度。研究呼吁AI社区重新思考安全防护措施,开发更安全、可靠的AI系统。
完成下面两步后,将自动完成登录并继续当前操作。