快速 - HuBERT:用于无监督语音表示学习的高效训练框架

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

LightHuBERT是一种基于Transformer的压缩框架,可以自动找到所需的结构,成功地将嵌套数千个共享权重子网的基于Transformer的超网进行了设计。在ASR和五个SUPERB任务上,LightHuBERT表现优于原始的HuBERT,并在三个SUPERB任务中具有3.5倍的压缩比。同时,它可以实现29%的参数减少,并提供代码和预训练模型。

🎯

关键要点

  • LightHuBERT是一种基于Transformer的压缩框架。

  • 该框架通过剪枝结构化参数自动找到所需的结构。

  • 成功设计了嵌套数千个共享权重子网的基于Transformer的超网。

  • 使用两阶段蒸馏策略从HuBERT中利用上下文化的潜在表征。

  • 在自动语音识别(ASR)和SUPERB基准测试上表现优于原始HuBERT。

  • LightHuBERT实现了超过10亿种结构,深度,宽度,注意力维度等。

  • 在三个SUPERB任务中具有3.5倍的压缩比。

  • 可以实现29%的参数减少,且提供代码和预训练模型。

➡️

继续阅读