多方目标跟踪与 LLMs:预训练、微调和提示工程比较
原文中文,约500字,阅读约需2分钟。发表于: 。通过对大规模语言模型在任务导向的多方对话中捕捉能力的评估,本研究记录并转录了医院中患者、他们的陪伴者和社交机器人之间的 29 个多方对话,并对此语料库进行了多方目标跟踪和意图 - 插槽识别的注释。我们在零样本和少样本设置中比较了三种方法,即微调 T5,使用 LED 创建预训练任务以训练 DialogLM,并采用 GPT-3.5-turbo...
本研究评估了大规模语言模型在多方对话中的能力,记录了29个医院中患者、陪伴者和社交机器人之间的对话,并进行了注释。GPT-3.5-turbo在少样本设置中表现最佳,正确注释了62.32%的目标跟踪对话和69.57%的意图-插槽识别对话。多方对话仍然是大规模语言模型的挑战。