Guardians of Discourse: Evaluating the Performance of Large Language Models in Multilingual Offensive Language Detection
原文英文,约100词,阅读约需1分钟。发表于: 。本研究解决了大型语言模型在多语言攻击性语言检测中缺乏全面评估的问题。通过对英语、西班牙语和德语中的三种大型语言模型(GPT-3.5、Flan-T5和Mistral)进行评估,我们首次探索了不同提示语言和增强翻译数据对非英语环境任务的影响。研究发现,模型的固有偏见及数据集在敏感话题的错误预测中发挥了重要作用。
本研究评估了大型语言模型在多语言攻击性语言检测中的表现,分析了GPT-3.5、Flan-T5和Mistral模型在英语、西班牙语和德语中的效果。研究首次探讨了提示语言和翻译数据对非英语任务的影响,发现模型的偏见和数据集在敏感话题的错误预测中起重要作用。