本研究探讨了大型语言模型(LLMs)在性别、职业等敏感类别上的社会偏见问题,并提出了一种去偏见机制,通过利用美国国家劳动统计局(NBLS)数据来减轻偏见。实证研究结果显示,去偏见方法显著降低了偏见评分,促进了模型的公平性和可靠性。
完成下面两步后,将自动完成登录并继续当前操作。