动态门控递归神经网络用于计算高效的语音增强
原文中文,约2100字,阅读约需5分钟。发表于: 。本文针对资源受限硬件平台上的语音增强计算问题,提出了一种新的动态门控递归神经网络(DG-RNN)。该网络利用RNN隐藏状态的慢演变特性,通过新增的选择门在每个步骤只更新一部分神经元,从而显著降低计算成本。实验结果表明,基于动态门控递归单元(D-GRU)的模型在语音清晰度和质量指标上,与基线GRU模型相当,同时计算需求减少了50%。
本文介绍了一种新的动态门控递归神经网络(DG-RNN),用于资源受限硬件平台上的语音增强计算。该网络通过新增的选择门在每个步骤只更新一部分神经元,从而降低计算成本。实验结果表明,该模型在语音清晰度和质量指标上与基线模型相当,同时计算需求减少了50%。