本研究使用预训练语言模型对阿拉伯社交媒体内容进行研究,发现微调方法在分类任务上取得了最高结果,f1-micro分数为0.865,f1-weighted分数为0.861。少样本学习技术可以提高GPT模型结果达20%。
该研究概述了 ArAIEval 共享任务的第二版,任务包括检测推特和新闻文章中带有说服技巧的宣传文本,以及区分宣传性和非宣传性的表情包,参与的系统主要采用了 AraBERT 等细调的变压器模型。
本文介绍了针对《2023年阿拉伯语AI任务评估》的方法,包括说服技巧检测和虚假信息检测。使用多种体裁的推文和新闻文章进行二元分类问题,采用预训练的Transformer模型和集成方法,任务1-A和任务2-A分别获得了0.742和0.901的微平均F1分数。
该文介绍了 SemEval 2023 任务 3 的子任务 3 中检测说服技巧的最佳解决方案,使用基于 Transformer 的语言模型处理多语言输入数据和多个预测标签,并使用大型的跨语言模型在所有输入数据上联合训练,最终在 9 种语言中的 6 种语言上表现最优秀。
本文讨论了作者参与阿拉伯语环境下 ArAIEval 共享任务的情况,获得了第9和第10名。实验包括对转换器模型进行微调,使用GPT-4进行零样本和少样本学习。
完成下面两步后,将自动完成登录并继续当前操作。