研究者提出了JRT-RNN循环大语言模型架构,通过重复提示信息和使用PLA线性注意力公式来改善模型性能。实验结果显示JRT-RNN在多个任务上显著提升性能,比传统Transformer模型更高效。
完成下面两步后,将自动完成登录并继续当前操作。