LASER:通过自我监督学习对齐语音表示以改进内容相关任务
原文中文,约200字,阅读约需1分钟。发表于: 。使用 SSFT 方法 LASER,通过自附着自监督表示的学习和对齐,通过少量的 GPU 精调获得相对于 ASR 和 PR 任务的显著改进。
本文介绍了WavLM预训练模型,利用Transformer结构的相对位置偏置来捕捉输入语音的顺序,提高了对非ASR语音任务的潜力,并在SUPERB基准测试上取得了最先进的性能。
使用 SSFT 方法 LASER,通过自附着自监督表示的学习和对齐,通过少量的 GPU 精调获得相对于 ASR 和 PR 任务的显著改进。
本文介绍了WavLM预训练模型,利用Transformer结构的相对位置偏置来捕捉输入语音的顺序,提高了对非ASR语音任务的潜力,并在SUPERB基准测试上取得了最先进的性能。