本研究探讨大型语言模型(LLMs)在检测冒犯性语言时的人类注释分歧,发现LLMs对分歧样本的信心与人类一致性相关,为改进检测提供指导。
本研究提出了一种新颖的内容审核框架,针对注释分歧问题,将其视为重要信号。该框架结合多任务学习与符合性预测,提升了模型性能和审核效率。
完成下面两步后,将自动完成登录并继续当前操作。