利用大型语言模型进行 COVID-Tweets 的多标签分类
原文中文,约300字,阅读约需1分钟。发表于: 。构建一个有效的多标签分类器,根据社交媒体帖子(尤其是推文)作者表达的特定疫苗相关担忧,对其进行标签化,比较三种不同的模型,其中 Supervised BERT-large-uncased 模型效果最佳。
该论文介绍了基于transformer的COVID-Twitter-BERT模型,通过对大量Twitter上有关COVID-19的消息进行预训练,提高了BERT-Large基础模型在五个不同分类数据集上的性能,尤其在COVID-19内容分类中表现突出。该模型可用于文本分类、问答和聊天机器人等自然语言处理任务。