本研究探讨了神经网络中的突触延迟参数化问题,提出了一种共享循环延迟队列(SCDQ)硬件结构,展示了其在内存扩展性和能效方面的优势。
本文提出了一种框架,用于在数字神经形态硬件中训练和部署高性能尖峰神经网络模型。该框架通过协同优化的突触延迟,在两个神经形态数字硬件平台上训练模型,并展示了从软件到硬件的过渡过程中的最小精度降低。
完成下面两步后,将自动完成登录并继续当前操作。