本研究探讨了印地语-英语代码混合中的幽默和讽刺检测,采用原生样本混合和多任务学习方法,显著提高了检测精度,尤其在多任务学习框架下表现优异,为代码混合语言处理提供了新思路。
本文介绍了为SemEval-2020 Task 9开发的两个系统,用于处理印地语-英语和西班牙语-英语混合语言。他们使用多种神经网络方法和预训练的单词嵌入,提出的多语言BERT方法在印地语-英语任务中表现出色,平均F1得分为0.6850。对于西班牙语-英语任务,他们使用了基于Transformer的多语言模型XLM-RoBERTa,获得了平均F1得分为0.7064,排名第17位。
完成下面两步后,将自动完成登录并继续当前操作。