DPD-神经引擎:一种22纳米6.6-TOPS/W/mm²的递归神经网络加速器用于宽带功率放大器数字预失真
原文中文,约300字,阅读约需1分钟。发表于: 。本研究针对现代通信系统中日益增长的深度神经网络(DNN)基础的数字预失真(DPD)的硬件实现效率问题,提出了一种DPD-NeuralEngine,加速器采用门控递归单元(GRU)神经网络设计。通过软硬件协同设计,22纳米CMOS实施在2 GHz下运行,具有256.5 GOPS的吞吐量和1.32...
本研究提出DPD-NeuralEngine加速器,提升深度神经网络基础的数字预失真在通信系统中的硬件效率。该加速器采用GRU神经网络设计,结合软硬件协同,在22纳米CMOS技术下运行,达到256.5 GOPS吞吐量和1.32 TOPS/W功率效率,实现首个AI基础的DPD专用集成电路加速器,功率面积效率为6.6 TOPS/W/mm²。