大型语言模型是否对情感敏感?
原文中文,约300字,阅读约需1分钟。发表于: 。本文研究了大型语言模型(LLMs)对文本情感的检测和反应能力,填补了对其情感处理能力的评估缺口。通过一系列实验,发现LLMs在情感识别中存在一定敏感性,但准确性和一致性有显著差异,提示需改进其训练流程,以更好捕捉细微的情感线索。
本研究评估了GPT-4和GPT-3.5在纵向情感分析任务上的性能。微调的GPT-3.5在术语提取和极性分类任务上获得了83.8的最优F1分数,比InstructABSA提高了5.7%。模型参数增加了1000倍,推理成本也增加了。研究结果还表明,在零痕迹和少痕迹环境中,详细提示可以提高性能,但对于微调模型来说并非必要。这对于ABSA中使用LLMs时的提示工程和微调选择具有相关性。