大型语言模型在决策中常被使用,但存在经济偏见。研究分析了GPT-2、Llama 2和Falcon等模型对不同群体的偏见,尤其在交叉性别下更明显。模型能从姓名中提取人口属性并关联经济偏见,需在应用中有效缓解偏见。
本文研究了预训练语言模型中的人类偏见及其对不同人群的影响,并提出了新的评估框架以测量和量化偏见。研究调查了GPT-3的职业性别偏见,并提出了缓解偏见的提示技术。
完成下面两步后,将自动完成登录并继续当前操作。