机器学习工具在检测仇恨性沟通中很重要,但效果取决于训练数据的质量。研究发现,这些工具在识别特定身份的仇恨性沟通时有偏见。为解决这个问题,研究回顾了过去十年的数据集,分析了目标身份的代表性和数据集不匹配。尽管有偏见,研究正向广泛化和多样化发展。
机器学习在保护在线空间免受仇恨性沟通方面至关重要,但其在检测特定身份的仇恨性沟通方面表现不佳且可能存在歧视。研究发现,现有的自动检测仇恨性沟通的数据集存在对特定身份的偏向。然而,该研究领域正朝着广泛化和多样化的积极趋势发展。
完成下面两步后,将自动完成登录并继续当前操作。