基于临床笔记的合成患者-医生对话生成
原文中文,约300字,阅读约需1分钟。发表于: 。本研究解决了训练医疗对话系统所需数据获取难题,尤其是在隐私问题的限制下。我们提出的合成对话生成方法SynDial,通过一次性大型语言模型和反馈循环,生成并优化高质量的合成对话。研究结果表明,生成的对话在事实准确性上优于基线模型,并且在多样性指标上与GPT4相当,具有显著的应用潜力。
本文介绍了在MEDIQA-Chat 2023共享任务中使用预训练语言模型和大型语言模型生成临床笔记的方法,并取得了高排名。ICL方法和GPT-4生成的笔记受到专业人士的欢迎,是有前途的自动生成笔记的途径。