向可扩展高效的设备端 ASR 迈进:迁移学习
原文中文,约500字,阅读约需2分钟。发表于: 。多语言预训练和迁移学习对于低资源单语言 ASR 模型的鲁棒性有着显著的提升作用。本研究系统地研究了三个主要方面:(a)在初期训练或微调过程中,迁移学习对模型性能的影响;(b)跨数据集领域和语言的迁移学习对性能的影响;(c)与非罕见词相比,迁移学习对罕见词的识别效果。我们的发现表明,使用 RNNT...
多语言预训练和迁移学习对低资源单语言ASR模型的鲁棒性有显著提升作用。使用RNNT损失进行预训练,然后通过最小词错误率损失进行微调,可以降低多国语言的词错误率。领域外预训练相比领域内预训练,提高了WERR28%。罕见词和非罕见词都有所受益,其中罕见词在领域外预训练中改善更大。