基于关系的反事实数据增强与对比学习用于自然语言推理模型的鲁棒性提升
原文中文,约400字,阅读约需1分钟。发表于: 。本研究解决了自然语言推理任务中模型在处理反事实修订数据时的脆弱性,表明现有模型学习的类语义不够稳健。论文提出了一种新方法,通过生成反事实句子对并应用对比学习,帮助模型更好地区分具有相似上下文的不同类句子对,显著提高了自然语言推理模型的性能和鲁棒性。
本研究探讨了交叉熵损失在自然语言推理中的不足,通过替换近义词生成对比集,评估模型的理解能力。ELECTRA-small模型在常规数据集上的准确率为89.9%,但在对比集上降至72.5%。通过增强训练数据集,模型准确率提升至85.5%。研究强调多样化语言表达的重要性,以推动自然语言推理模型的发展。