通过近似内核加速微控制器上的TinyML推理
原文中文,约500字,阅读约需2分钟。发表于: 。本研究解决了Tiny Machine Learning(TinyML)在微控制器中推理效率和内存性能的不足问题。我们提出了一种结合近似计算和软件内核设计的新方法,通过对卷积层操作数进行解包和意义计算,采用计算跳过策略进行推理加速。实验结果表明,这种方法在保持分类准确性的同时,平均减少了21%的延迟,对于低准确率需求,则能实现更显著的优化。
TinyML是将深度学习应用于物联网设备和微控制器的领域。由于硬件限制,面临内存和编译器支持的挑战,需要算法和系统的共同设计。文章介绍了TinyML的定义、挑战、应用,以及在MCUs上的进展和MCUNet的设计,展示了在小型设备上实现AI的方法,并探讨未来发展。