LLM 对零样本和少样本提示的比较研究:孟加拉情感分析的微调模型
原文中文,约300字,阅读约需1分钟。发表于: 。本研究通过 33,605 条孟加拉文新闻推文和 Facebook 评论创建了一个庞大的手动注释数据集,并对 Flan-T5、GPT-4 和 Bloomz 等多种语言模型进行了零指导和少量指导的上下文学习,与精细调优模型进行了比较分析。研究结果表明,在零指导和少量指导的场景下,单语言变换器模型始终优于其他模型。为了促进进一步的研究探索,我们打算向更广泛的研究社区公开提供这个数据集和我们的研究工具。
本研究使用33,605条孟加拉文新闻推文和Facebook评论创建了手动注释数据集,并比较了Flan-T5、GPT-4和Bloomz等语言模型。结果显示,单语言变换器模型在零指导和少量指导的情况下表现最佳。研究者计划公开数据集和研究工具。