研究者提出了自监督自适应预训练(SAPT)来解决预训练语音模型领域不匹配的问题。实验证明,SAPT在FLEURS基准测试中提高了XLSR的性能,尤其是对于少数语言,增益高达40.1%。同时,在少样本学习设置中应用SAPT也提高了XLSR的样本效率。通过自监督实现持续自适应可以提升多语言语音模型的下游性能。
完成下面两步后,将自动完成登录并继续当前操作。