利用微调和最小前瞻波束搜索改善 Whisper
原文中文,约400字,阅读约需1分钟。发表于: 。在低资源语言方面,Whisper 的性能仍然不够完善。为了解决这些问题,我们在额外数据上对 Whisper 进行了微调,并提出了一种改进的解码算法。在越南语上,使用 LoRA 对 Whisper-Tiny 进行微调可以将 WER 相对于零 - shot 的 Whisper-Tiny 设置提高 38.49,相对于完全参数微调的减少了 1.45。此外,使用 Filter-Ends 和 Min...
该文介绍了对Whisper语音识别模型的改进,通过在额外数据上微调和使用改进的解码算法,提高了在低资源语言方面的性能。使用Filter-Ends和Min Lookahead解码算法,WER相对于标准beam search平均减少了2.26。