大规模语言模型的公共卫生平衡和可解释的社交媒体分析
原文中文,约400字,阅读约需1分钟。发表于: 。给定研究论文,通过高级数据增强方法解决社交媒体数据不平衡问题,并借助 BERT 模型指导 LLMs,提出了一种用于公共卫生的社交媒体分析的新型 ALEX 框架,在 Social Media Mining for Health 2023 (SMM4H) 竞赛中表现优越。
研究评估了多种大语言模型在心理健康任务中的表现,发现LLMs在零样本和少样本提示设计上具有有限但有希望的性能。指令微调可以显著提升LLMs在所有任务上的表现。最佳微调模型Mental-Alpaca在平衡精度上比GPT-3.5高出16.7%,并与最先进的任务特定模型相媲美。研究总结了一系列行动指南,介绍如何赋予LLMs更好的心理健康领域知识,并成为心理健康预测任务的专家。