本研究提出了一种新方法,解决设备端学习中的内存和计算约束问题,作为低秩分解的替代方案。实验结果表明,该方法在激活内存使用上可降低120.09倍,并减少训练FLOPs达1.86倍。
该研究提出了一种新的方法,可以在单个标准训练时间内将用户定义的内存和延迟约束融入不同iable NAS优化方法中。该方法在五个物联网相关基准测试中进行了评估,降低了内存和延迟分别达到87.4%和54.2%,同时保证TinyML的最新手动调优深度神经网络的非劣性精度。
完成下面两步后,将自动完成登录并继续当前操作。