Confidence Regularization for Masked Language Modeling Using Text Length
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本文提出了一种新颖的置信度正则化方法,旨在解决掩码语言建模中因输入文本长度短而导致的模型过度自信问题。实验结果显示,该方法在GLUE和SQuAD数据集上提高了准确性并降低了校准误差。
🎯
关键要点
- 本文提出了一种新颖的置信度正则化方法。
- 该方法旨在解决掩码语言建模中因输入文本长度短而导致的模型过度自信问题。
- 正则化强度根据输入文本长度动态调整。
- 实验结果显示,该方法在GLUE和SQuAD数据集上提高了准确性。
- 该方法降低了校准误差。
➡️