微型语音增强的两步知识蒸馏

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

该研究提出了一种新的两步法来压缩 Tiny 语音增强模型,使用知识蒸馏技术进行预训练,并提出了一种新的细粒度相似性保持 KD 损失函数。该方法在高压缩和低信噪比条件下表现出突出的改进,信噪失真比分别提高了0.9dB和1.1dB。

🎯

关键要点

  • 该研究提出了一种新的两步法来压缩 Tiny 语音增强模型。

  • 使用知识蒸馏技术进行预训练。

  • 提出了一种新的细粒度相似性保持 KD 损失函数。

  • 该方法在高压缩和低信噪比条件下表现出突出的改进。

  • 在输入信噪比为 -5dB 和 63倍压缩的情况下,信噪失真比分别提高了 0.9dB 和 1.1dB。

➡️

继续阅读