DPD-神经引擎:一种22纳米6.6-TOPS/W/mm²的递归神经网络加速器用于宽带功率放大器数字预失真

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本研究提出DPD-NeuralEngine加速器,提升深度神经网络基础的数字预失真在通信系统中的硬件效率。该加速器采用GRU神经网络设计,结合软硬件协同,在22纳米CMOS技术下运行,达到256.5 GOPS吞吐量和1.32 TOPS/W功率效率,实现首个AI基础的DPD专用集成电路加速器,功率面积效率为6.6 TOPS/W/mm²。

🎯

关键要点

  • 本研究提出DPD-NeuralEngine加速器,提升深度神经网络基础的数字预失真在通信系统中的硬件效率。
  • 加速器采用门控递归单元(GRU)神经网络设计,结合软硬件协同。
  • 在22纳米CMOS技术下运行,达到256.5 GOPS吞吐量和1.32 TOPS/W功率效率。
  • 实现首个基于人工智能的DPD专用集成电路加速器。
  • 功率面积效率为6.6 TOPS/W/mm²。
➡️

继续阅读