本研究探讨了印地斯坦音乐中人机交互的不足,参与者与GaMaDHaNi模型互动时发现,模型输出缺乏限制和一致性是主要挑战,为未来设计提供了新方向。
研究发现,历史上处于骚扰风险中的群体更可能将Reddit、Twitter或4chan上的随机评论标记为有毒,亲身经历过骚扰的人也更可能这样做。研究展示了面向所有用户的毒性分类算法Perspective API,通过个性化模型调整平均提高86%的准确性。研究强调了提高毒性内容分类器公平性和效果的缺陷和新的设计方向。
完成下面两步后,将自动完成登录并继续当前操作。