TransMI: 创建多语言预训练语言模型的强基线框架,用于音译数据
原文中文,约200字,阅读约需1分钟。发表于: 。该论文提出了一个简单而有效的框架 TransMI,通过利用多语言预训练语言模型(mPLMs)及其伴随的标记器,将数据转写成共同脚本,从而创建一个强大的基准,有效处理转写数据,提高 3% 至 34% 的性能。
本文介绍了一种基于改进的transformer网络结构的多语言模型,用于跨越英语、印地语、孟加拉语、卡纳达语和泰米尔语的Transliteration。该模型在精度方面优于现有模型,Top-1精度得分为80.7%,比最好结果提高了29.5%,语音准确性达到93.5%。