本研究开发了提供者文档摘要质量工具(PDSQI-9),用于评估大型语言模型生成的临床摘要。该工具能够有效区分高低质量摘要,并验证了其构念效度和一般化能力,支持大型语言模型在医疗工作流中的安全整合。
本研究提出了ClinicSum,一个自动生成患者与医生对话的临床摘要框架。该框架通过检索模块提取SOAP信息,并利用微调的语言模型生成摘要。实验结果表明,ClinicSum在自动评估和专家评估中表现优异,展示了其在自动临床摘要方面的潜力。
本文介绍了使用大型语言模型(LLM)评估文本摘要中的实际一致性(FC)的研究。通过引入TreatFact数据集,作者对11个LLM进行了FC评估,并发现通过增加模型大小、扩展预训练数据和开发微调数据,可以提升开源LLM的性能。然而,现有的方法和基于LLM的评估器都无法捕捉到临床摘要中的实际不一致性,给FC评估带来了新的挑战。
本文介绍了使用大型语言模型(LLM)评估文本摘要中的实际一致性(FC)的研究。通过引入TreatFact数据集,作者对11个LLM进行了FC评估,并发现通过增加模型大小、扩展预训练数据和开发精心策划的微调数据,有潜力提升开源LLM的性能。然而,现有的方法和基于LLM的评估器都无法捕捉到临床摘要中的实际不一致性,给FC评估提出了新的挑战。
本文介绍了使用大型语言模型(LLM)评估文本摘要中的实际一致性(FC)的研究,通过引入TreatFact数据集填补了该领域的空白。研究发现,通过增加模型大小、扩展预训练数据和开发精心策划的微调数据,有潜力提升开源LLM的性能。然而,目前的方法和基于LLM的评估器都无法捕捉到临床摘要中的实际不一致性,给FC评估提出了新的挑战。
完成下面两步后,将自动完成登录并继续当前操作。