本文评估了GPT-4、GPT-3.5和LLAMA-2等自然语言处理模型在检测贬低人性用语方面的性能。结果显示,这些模型能够以70%的准确率区分贬低人性用语和更广泛的仇恨言论,但存在偏见,并且在识别其他目标群体的贬低人性案例上经常失败。此外,使用最佳模型进行更大规模数据集的自动注释,但发现这些模型未能达到高质量数据生成标准。
完成下面两步后,将自动完成登录并继续当前操作。