COBias 和 Debias:通过非线性整数规划来减小语言模型的成对准确性偏倚
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文介绍了一种名为Debiasing Contrastive Learning (DCT)的NLU去偏置方法,通过对比学习缓解编码偏置潜在特征和偏置影响的动态性。实验结果显示,DCT在保持分布内性能的同时,在分布之外的数据集上表现出色,并减少了模型表示中的偏置潜在特征。
🎯
关键要点
- 提出了一种名为Debiasing Contrastive Learning (DCT)的NLU去偏置方法。
- DCT通过对比学习缓解编码偏置潜在特征和偏置影响的动态性。
- 使用正向采样和动态负向抽样策略选取最小相似度的偏态样本。
- 实验表明,DCT在保持分布内性能的同时,优于最先进的基线算法。
- DCT在分布之外的数据集上表现出色,减少了模型表示中的偏置潜在特征。
➡️