通过提示调节提高大型语言模型提取社会健康决定因素的泛化能力
原文中文,约400字,阅读约需1分钟。发表于: 。利用软提示学习架构,该研究提出了一种新的方法来引导大型语言模型实现对患者信息的提取,评估了两种类型的语言模型在跨领域应用中的性能,并发现使用解码器模型进行软提示调优的结果更好。GatorTronGPT 在最佳 F1 得分上超过传统的 GatorTron 模型,分别在跨机构环境中提高了 8.9% 和 21.8%,在跨疾病环境中提高了 5.5% 和 14.5%。
本研究调查了GPT-4等大型语言模型对结构化长期电子健康记录(EHR)数据的适应性,特别关注其零样本能力。研究证明了LLMs在关键任务的预测性能可以提高约35%,在少样本情景中超越了机器学习模型。研究强调了LLMs在提高临床决策能力方面的潜力。