MELA:多语言语言可接受性评估
原文中文,约400字,阅读约需1分钟。发表于: 。我们介绍了首个多语言语言可接受性基准 MELA,并在 48K 个样本中涵盖了 10 种语言,从不同的语言家族中选择。我们分析了经过精调的 XLM-R 的权重,探索了语言之间的转移困难,结果显示 ChatGPT 得益于上下文实例,但仍落后于精调的 XLM-R;而 GPT-4 在零 - shot 设置中与精调的 XLM-R...
首个多语言语言可接受性基准MELA涵盖10种语言,分析了XLM-R的权重和语言转移困难,结果显示ChatGPT落后于精调的XLM-R,GPT-4在零-shot设置中性能相当。跨语言和多任务学习实验表明语言内的训练数据至关重要。引入了冲突权重的概念,可能是跨语言转移困难的指标。