COBias 和 Debias:通过非线性整数规划来减小语言模型的成对准确性偏倚

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本文介绍了一种名为Debiasing Contrastive Learning (DCT)的NLU去偏置方法,通过对比学习缓解编码偏置潜在特征和偏置影响的动态性。实验结果显示,DCT在保持分布内性能的同时,在分布之外的数据集上表现出色,并减少了模型表示中的偏置潜在特征。

🎯

关键要点

  • 提出了一种名为Debiasing Contrastive Learning (DCT)的NLU去偏置方法。
  • DCT通过对比学习缓解编码偏置潜在特征和偏置影响的动态性。
  • 使用正向采样和动态负向抽样策略选取最小相似度的偏态样本。
  • 实验表明,DCT在保持分布内性能的同时,优于最先进的基线算法。
  • DCT在分布之外的数据集上表现出色,减少了模型表示中的偏置潜在特征。
➡️

继续阅读