答案后的纠正:通过后处理方法提升多跨度问答

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

研究显示,经过Fine-Tuning的预训练模型在问答基准测试中表现良好,但在少样本情况下效果不佳。为此,提出了新的预训练方案“Recurring Span Selection”,在数据量少时仍能在SQuAD测试中取得高分。

🎯

关键要点

  • 经过Fine-Tuning的预训练模型在问答基准测试中表现良好。
  • 在少样本情况下,标准模型表现不佳,突出了预训练目标与问答之间的差异。
  • 提出了新的预训练方案:Recurring Span Selection,适合处理多个重复区域的段落。
  • 该方案在数据量少时仍能在SQuAD测试中取得高分,例如仅使用128个训练示例时获得72.7 F1的成绩。
  • 在高资源设置下,该方案仍保持相当的性能。
➡️

继续阅读