该研究提出了一种混合记忆架构(MoM),有效解决线性序列建模中的记忆状态压缩问题,显著提高了记忆容量并减少了干扰。实验结果表明,该方法在回忆任务上优于现有技术,接近Transformer的性能。
完成下面两步后,将自动完成登录并继续当前操作。