无重演多语言ASR的研究:基于LoRA的Whisper案例研究
原文中文,约300字,阅读约需1分钟。发表于: 。本研究解决了多语言语音基础模型在适应新语言时的计算开销和灾难性遗忘问题。通过比较多种LoRA方法,并提出利用原始模型的LoRA参数进行近似正交梯度下降的方法,我们在无原始训练数据的情况下显著提高了新语言的性能。实验表明,使用学习的秩系数的中国Whisper模型在维吾尔语和藏语的数据集上表现更优,且参数集更为紧凑。
本研究解决了多语言语音基础模型在适应新语言时的计算开销和灾难性遗忘问题。通过比较多种LoRA方法,并提出利用原始模型的LoRA参数进行近似正交梯度下降的方法,我们在无原始训练数据的情况下显著提高了新语言的性能。实验表明,使用学习的秩系数的中国Whisper模型在维吾尔语和藏语的数据集上表现更优,且参数集更为紧凑。