利用 LLM 在系统性文献综述中提高过滤效率的潜力
原文中文,约500字,阅读约需2分钟。发表于: 。通过使用大型语言模型提高文献回顾过滤的效率、速度和准确性,减少了人工筛选的工作量,并且通过一致性方案控制了假阴性,从而实现了比人工选择更准确和相关的文章。
本研究使用精细调整的大型语言模型(LLMs)自动化系统性文献综述(SLRs),验证了LLM的准确性,并提出了解决虚幻感和追踪信息来源的机制。研究呼吁更新PRISMA报告指南以整合AI驱动的过程,为高效进行全面准确的文献综述设立了新的标准。