微型语音增强的两步知识蒸馏
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
该研究提出了一种新的两步法来压缩 Tiny 语音增强模型,使用知识蒸馏技术进行预训练,并提出了一种新的细粒度相似性保持 KD 损失函数。该方法在高压缩和低信噪比条件下表现出突出的改进,信噪失真比分别提高了0.9dB和1.1dB。
🎯
关键要点
-
该研究提出了一种新的两步法来压缩 Tiny 语音增强模型。
-
使用知识蒸馏技术进行预训练。
-
提出了一种新的细粒度相似性保持 KD 损失函数。
-
该方法在高压缩和低信噪比条件下表现出突出的改进。
-
在输入信噪比为 -5dB 和 63倍压缩的情况下,信噪失真比分别提高了 0.9dB 和 1.1dB。
➡️