本文提出了一种新的参数高效的跨语言转移学习框架,通过基于翻译的对齐方法来减少多语言差异,并采用微调方法来提高效率。实验证明,该框架在跨语言转移方面取得了显著改进,尤其在低资源场景下,只需保留和微调极少量的参数。
该研究提出了一种跨语言转移学习方法,使用无标签语音数据集和自我训练来提高单语言 wav2vec-2.0 模型的自动语音识别性能。经过调整后,该模型在目标语言 ASR 任务上表现类似于训练了 53 种语言的顶级多语言 XLSR 模型。
本文提出了一种新的参数高效的跨语言转移学习框架,利用基于翻译的对齐方法来缓解多语言差异,并探索参数高效的微调方法。经过实验表明,该框架显著减少了语言之间的差异,并在跨语言转移方面取得了改进,尤其在低资源场景中,同时只保留和微调极少量的参数。
本文提出了一种新的参数高效的跨语言转移学习框架,利用基于翻译的对齐方法来缓解多语言差异,并探索参数高效的微调方法。实验表明,该框架显著减少了语言之间的差异,在跨语言转移方面取得了改进,尤其在低资源场景中,同时只保留和微调极少量的参数。
本文提出了一种新的参数高效的跨语言转移学习框架,通过基于翻译的对齐方法缓解多语言差异,并探索参数高效的微调方法。实验证明,该框架显著减少了语言之间的差异,在跨语言转移方面取得了改进。尤其在低资源场景中,只需保留和微调极少量的参数,相比全模型仅需0.16%的额外参数。
完成下面两步后,将自动完成登录并继续当前操作。