本研究提出ImplexConv数据集,包含2500个示例,旨在解决开放领域对话中的个性化和隐式推理不足问题。引入TaciTree框架,以提升大语言模型在长期对话中的推理能力。
本研究提出了一种新方法,通过指令微调和高级提示策略,提升对话状态跟踪性能,采用变分图自编码器建模用户意图,且无需预定义本体,在开放领域对话中表现优异。
本文介绍了一种开放领域对话生成技术,提出了multi-source Wizard of Wikipedia(Ms.WoW)评估基准,用于评估多源对话的知识选择和生成。文章还提出了一个新挑战,即在零样本条件下测试模型使用新知识来源的能力。
本文介绍了一种名为LLM-Eval的方法,用于对使用大型语言模型的开放领域对话进行多维自动评估。LLM-Eval通过设计基于单个提示的评估方法,可以在单个模型调用中评估会话质量的多个方面。对LLM-Eval在各种基准数据集上的评估表明,它比最先进的评估方法更高效和适应性强。同时,该分析还强调了选择适当的LLM和解码策略的重要性。LLM-Eval为评估开放领域对话系统提供了一种多功能且强大的解决方案,可以简化评估过程并在不同场景中提供一致的性能。
完成下面两步后,将自动完成登录并继续当前操作。