在Kaggle上找到《老友记》对话数据集,计划构建聊天机器人。通过将对话分角色生成嵌入并存储在OpenSearch中,查询用户输入以返回相关对话。为缩小用户提示与返回对话之间的差距,最终使用Bedrock模型优化响应,确保保持角色语气。完成后,创建前端应用程序供用户聊天。
本研究提出了“多面心理技能”对话数据集,以解决大型语言模型在复杂社交对话中的技能规划问题。新模型“Thanos”显著提升了对话质量,促进了利社会行为。
大型语言模型和对话助手的发展需要动态、可扩展的对话数据集。知识图谱为生成最新的对话KGQA数据集提供了基础。我们提出了ConvKGYarn,能够生成高质量、可配置的数据集,以适应多种用户交互模式,提升对话助手性能。
文本风格转换在自然语言处理中越来越受欢迎。研究者使用预定义语义槽的对话数据集进行了风格转换技术的对比研究,发现改进的无监督方法LEWIS在任务中表现优于原始方法和基准方法。
我们提出了一种新方法来增强大型语言模型(LLMs),通过训练知识矿工LLMiner自动从相关文档中提取问题和答案对,并将其与对话数据集结合来微调LLM,从而提升其在特定领域的专业知识和对话能力。该模型在新的评估基准上表现出显著的性能改进,并且只需要少量的种子实例,为LLMs通过模型合成的训练数据实现自我改善提供了可能性。
通过训练用户模拟器UserGPT和生成对话数据集RealChat,实验结果显示模型在Vicuna-Bench和MT-Bench中表现优于基线模型,并通过与LLaMA 2模型微调在MT-Bench中获得6.33的领先分数。方法还展示了可扩展性和可迁移性,并初步探索了训练集数据质量与模型性能之间的相互作用。
该文介绍了文本风格转换在自然语言处理中的应用,重点研究了各种方法的内容保留能力。作者创建了一个对话数据集,包含必须保留的预定义语义槽。作者对无监督方法 LEWIS 进行改进,在任务中取得了明显的优势。
本文介绍了Conversation Chronicles数据集,用于实现长期对话设置。作者提出了一个对话模型ReBot,它表现出高人类参与度的长期上下文理解能力。
完成下面两步后,将自动完成登录并继续当前操作。