Motamot:一个用于揭示大型语言模型在孟加拉政治情感分析中的优势的数据集
💡
原文中文,约700字,阅读约需2分钟。
📝
内容提要
该研究使用GPT 3.5、GPT 4和DepGPT等模型,对Reddit和X数据集进行分类,创建了孟加拉社交媒体抑郁数据集(BSMDD)。DepGPT模型在零样本学习和少样本学习场景中表现优异,准确度和F1分数接近完美。该研究强调了LLM模型在不同语言环境中的有效性和灵活性,为抑郁症检测提供了深入信息。
🎯
关键要点
- 研究关注心理健康与社交媒体的联系,特别是外向用户的抑郁症早期检测。
- 使用GPT 3.5、GPT 4和DepGPT等模型对Reddit和X数据集进行分类,创建孟加拉社交媒体抑郁数据集(BSMDD)。
- 提供了每个模型的架构细节和评估方法,使用零样本学习和少样本学习技术。
- SahajBERT和具有FastText嵌入的Bi-LSTM在各自领域表现优越,解决了Transformer模型的可解释性问题。
- DepGPT模型在零样本学习和少样本学习场景中表现优异,准确度为0.9796,F1分数为0.9804。
- GPT-3.5 Turbo和Alpaca Lora 7B在零样本学习和少样本学习情况下效果较差。
- 研究强调了LLM在不同语言环境中的有效性和灵活性,为抑郁症检测提供深入信息。
➡️