沟通是您所需的一切:通过多语言模型交流构建说服数据集 本研究解决了大型语言模型(LLMs)在生成说服对话时输出流畅性和复杂性不足的问题。提出的多LLM交流框架能够高效自动生成多样化的高质量说服数据,且在复杂情境下依然能够保持自然性和语言多样性。研究结果表明,该框架有潜力推进计算和社会科学领域在说服沟通方面的研究。 本研究提出了一种多LLM交流框架,旨在提高大型语言模型生成说服对话的流畅性和复杂性,能够高效生成多样化的高质量说服数据,推动相关领域的研究进展。 交流框架 多LLM 数据集 研究进展 语言模型 说服对话 高质量数据