长期对话中的因果知觉位置去偏微调
原文中文,约400字,阅读约需1分钟。发表于: 。我们提出了一种名为 CPD 的新方法,它利用基于干扰的因果变量发现方法从对话历史中提取因果相关的话语,并在微调过程中增强模型的因果感知能力,以解决大型语言模型在长期对话中生成无关紧要和通用回应的固有位置偏倚问题。在两个数据集上的实验结果证明,我们的方法可以有效减轻多个大型语言模型的位置偏倚,并与现有基线相比取得显著进展。
本文介绍了基于情境的对话模型在第二语言学习中的重要性,并提出了一种新颖的自动评估方法。该方法通过在大型语言模型上进行微调,有效地训练话题和未遇到的话题,为广泛的会话主题提供了有希望的解决方案。同时,该研究还解决了对话系统领域缺乏可靠自动评估指标的问题,提出了一种利用经过微调的语言模型来评估情境对话模型性能的方法。