基于时间融合的可扩展 GPU 加速 SNN 训练方面的研究
原文中文,约400字,阅读约需1分钟。发表于: 。由于深度学习任务中脉冲神经网络(SNNs)的实际训练通常依赖于传统 GPU,导致计算时间延长,我们提出一种新颖的时间融合方法,旨在加速 SNNs 在 GPU 平台上的传播动力学,经过全面的验证实验,证实了其在单个和多个 GPU 系统中的功效和适应性,与现有的 SNN 库 / 实现相比,我们的方法在 NVIDIA A100 GPU 上获得了 5 倍到 40 倍的加速效果。
本文介绍了脉冲神经网络(SNNs)作为深度神经网络的替代方法在信号处理应用中的广泛应用,包括神经形态计算和训练扩展方法。同时,还讨论了构建可部署SNN系统的基础硬件挑战。