本文旨在量化和减少语言模型中的情感偏见。研究发现敏感属性的变化会影响生成文本的情感。使用公平机器学习的方法证明了大规模模型在新闻和维基百科语料库上存在高偏见。提出了使用嵌入和情感预测导出的正则化方法来提高公正度量。该方法在保持困惑度和语义相似性的同时,提高了公正度量。
正在访问的资源需要验证您是否真人。
或在微信中搜索公众号“小红花技术领袖”并关注
第二步:在公众号对话中发送验证码: