DFKI-NLP 参加 SemEval-2024 任务 2:基于数据扰动和 MinMax 训练的鲁棒 LLMs
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
该论文介绍了一种名为TLDR的新方法,用于改进临床NLI任务中的蕴涵和矛盾分析。该方法利用T5模型生成的临床语言摘要进行DeBERTa报告分析。实验结果表明,TLDR方法显著提高了宏观F1得分,并在预测一致性和忠实度方面对语义变化输入具有优越性。
🎯
关键要点
- 该论文介绍了一种新方法TLDR,用于改进临床试验的自然语言推理任务。
- TLDR方法结合了T5模型生成的前提摘要,以提高蕴涵和矛盾分析的效果。
- 该方法克服了窗口较小和前提较长带来的挑战。
- TLDR方法显著提高了宏观F1得分,比截断前提提高了0.184。
- 全面实验评估证实了TLDR在预测一致性和忠实度方面的优越性。
➡️