本研究提出了一种新方法,解决设备端学习中的内存和计算约束问题,作为低秩分解的替代方案。实验结果表明,该方法在激活内存使用上可降低120.09倍,并减少训练FLOPs达1.86倍。
完成下面两步后,将自动完成登录并继续当前操作。