微型语音增强的两步知识蒸馏
原文中文,约300字,阅读约需1分钟。发表于: 。借助知识蒸馏技术,我们提出了一种新的两步法来压缩 Tiny 语音增强模型,其中包括先用知识蒸馏目标进行预训练,然后切换到完全监督训练模式,同时提出了一种新的细粒度相似性保持 KD 损失函数,该方法在高压缩和低信噪比条件下表现出突出的改进,相对于基线,在输入信噪比为 - 5dB 和 63 倍压缩的情况下,信噪失真比分别提高了 0.9dB 和 1.1dB。
该研究提出了一种新的两步法来压缩 Tiny 语音增强模型,使用知识蒸馏技术进行预训练,并提出了一种新的细粒度相似性保持 KD 损失函数。该方法在高压缩和低信噪比条件下表现出突出的改进,信噪失真比分别提高了0.9dB和1.1dB。