大型语言模型在目标情感分析中的应用

原文约400字,阅读约需1分钟。发表于:

本文研究使用基于解码器的生成式 Transformer 来提取对俄罗斯新闻文章中的命名实体的情感分析能力,通过对 RuSentNE-2023 数据集进行实验,发现在无监督和有监督转换器中,零 - shot 方法的结果与以 BERT-base 为基线的有监督转换器相似,而经过 THoR 理论的 Fine-tuned Flan-T5 模型在推理能力上实现了至少 5% 的增长,并以 Fine-tuned Flan-T5-xl 取得了在 RuSentNE-2023 情感分析中超过先前基于 Transformer 的分类器的最佳结果。

金融情绪分析中,较小的LLM模型通过上下文学习和微调表现出与最先进模型相当的性能,增加样本数量并未提高情绪分析性能。

相关推荐 去reddit讨论