通过大型语言模型理解心理健康的评估
原文中文,约400字,阅读约需1分钟。发表于: 。评估大型语言模型在理解人类心理健康状况表达方面的潜力,结果显示,基于 Transformer 的模型(如 BERT 和 XLNet)在 DAIC-WOZ 数据集上表现优于大型语言模型。
本研究全面评估了多种大语言模型(LLMs)在心理健康任务中的性能,发现LLMs具有有限但有希望的表现。指令微调可以显著提升LLMs在所有任务上的性能。最佳微调模型Mental-Alpaca在平衡精度上比GPT-3.5高出16.7%,与最先进的任务特定模型相媲美。提供了行动指南,介绍如何赋予LLMs更好的心理健康领域知识,并成为心理健康预测任务的专家。