研究者引入了ID-XCB,一种不依赖数据的去偏技术,用于减轻基于脱节性联想的粗俗词语和事件之间的偏见关联带来的偏见。他们在两个网络欺凌数据集上测试了ID-XCB,并证明其具有学习强大的网络欺凌检测能力,并减轻了偏见。
本文研究了多语言模型中去偏技术的可转移性,利用多语种 BERT,跨语言的去偏技术效果显著,特别是在低资源语言中。这些新的深入认识有助于对多语种语言模型中的偏见缓解有更深层次的理解,并提供了实践指导。
TransPrompt v2是一种用于少样本学习的传递性促进框架,通过元知识获取和去偏技术提高性能。它在多个NLP任务和数据集上优于单任务和跨任务强基线,并改善预训练语言模型在未见任务上的性能。同时,在使用完整训练集进行学习时也优于强调优基线。
完成下面两步后,将自动完成登录并继续当前操作。