跨多元社群中有毒评论识别的主观建模(通过模仿标注者注释)

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

研究发现,历史上处于骚扰风险中的群体更可能将Reddit、Twitter或4chan上的随机评论标记为有毒,亲身经历过骚扰的人也更可能这样做。研究展示了面向所有用户的毒性分类算法Perspective API,通过个性化模型调整平均提高86%的准确性。研究强调了提高毒性内容分类器公平性和效果的缺陷和新的设计方向。

🎯

关键要点

  • 研究调查了17280名互联网用户对毒性内容的期望差异。
  • 历史上处于骚扰风险中的群体更可能将社交媒体评论标记为有毒。
  • 亲身经历过骚扰的人更倾向于标记评论为有毒。
  • 展示了Perspective API毒性分类算法的个性化模型,平均提高86%的准确性。
  • 强调了当前毒性内容分类器的缺陷和新的设计方向,以提高公平性和效果。
➡️

继续阅读