对话本体关系抽取的约束思维链路解码
原文中文,约400字,阅读约需1分钟。发表于: 。该研究聚焦于关系抽取的迁移学习设置中,通过对生成式关系抽取进行多样分支解码和基于置信度阈值选择关系的方式,改进了大型语言模型的推理能力,以减少幻觉的风险,并在两个广泛使用的数据集上进行了实验,发现针对源领域微调和一次性提示的大型语言模型在目标本体上的性能有所提升。
本文介绍了一种名为Chain-of-Thought-Explanation(CoTE)的模型,用于对话状态跟踪(DST)。CoTE模型通过逐步创建详细的解释来提高槽值的准确性和可靠性。实验证实了CoTE在三个DST基准上的有效性,并发现在长对话回合、用户回应和推理步骤中具有明显的益处。