答案后的纠正:通过后处理方法提升多跨度问答
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
研究显示,经过Fine-Tuning的预训练模型在问答基准测试中表现良好,但在少样本情况下效果不佳。为此,提出了新的预训练方案“Recurring Span Selection”,在数据量少时仍能在SQuAD测试中取得高分。
🎯
关键要点
- 经过Fine-Tuning的预训练模型在问答基准测试中表现良好。
- 在少样本情况下,标准模型表现不佳,突出了预训练目标与问答之间的差异。
- 提出了新的预训练方案:Recurring Span Selection,适合处理多个重复区域的段落。
- 该方案在数据量少时仍能在SQuAD测试中取得高分,例如仅使用128个训练示例时获得72.7 F1的成绩。
- 在高资源设置下,该方案仍保持相当的性能。
➡️