DPD-神经引擎:一种22纳米6.6-TOPS/W/mm²的递归神经网络加速器用于宽带功率放大器数字预失真
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本研究提出DPD-NeuralEngine加速器,提升深度神经网络基础的数字预失真在通信系统中的硬件效率。该加速器采用GRU神经网络设计,结合软硬件协同,在22纳米CMOS技术下运行,达到256.5 GOPS吞吐量和1.32 TOPS/W功率效率,实现首个AI基础的DPD专用集成电路加速器,功率面积效率为6.6 TOPS/W/mm²。
🎯
关键要点
- 本研究提出DPD-NeuralEngine加速器,提升深度神经网络基础的数字预失真在通信系统中的硬件效率。
- 加速器采用门控递归单元(GRU)神经网络设计,结合软硬件协同。
- 在22纳米CMOS技术下运行,达到256.5 GOPS吞吐量和1.32 TOPS/W功率效率。
- 实现首个基于人工智能的DPD专用集成电路加速器。
- 功率面积效率为6.6 TOPS/W/mm²。
➡️