在知识蒸馏中不留下任何知识:以实际数据为基础的代码切换 ASR 的实用和有效知识蒸馏

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

通过知识蒸馏技术,提出了一种新的两步法来压缩Tiny语音增强模型,该方法在高压缩和低信噪比条件下表现出显著改进,信噪失真比分别提高了0.9dB和1.1dB。

🎯

关键要点

  • 通过知识蒸馏技术提出了一种新的两步法来压缩Tiny语音增强模型。
  • 该方法包括先用知识蒸馏目标进行预训练,然后切换到完全监督训练模式。
  • 提出了一种新的细粒度相似性保持KD损失函数。
  • 在高压缩和低信噪比条件下,该方法表现出显著改进。
  • 在输入信噪比为-5dB和63倍压缩的情况下,信噪失真比分别提高了0.9dB和1.1dB。
➡️

继续阅读