本研究提出了一种新的基于块的推理方法,以提高长上下文递归大型语言模型的性能。实验结果显示,该方法在LongBench v2基准测试中显著提升了多种模型的表现,质疑了递归模型处理长距离依赖关系的有效性。
本文探讨了主动说话者检测(ASD)的挑战,并提出了两种方法以应对实时系统中的延迟和内存问题:一是限制模型使用的未来上下文帧数量,二是限制推理时访问的过去帧数量。实验结果表明,受限的变换器模型在性能上可与最先进的递归模型相媲美,同时显著减少上下文帧数量。
完成下面两步后,将自动完成登录并继续当前操作。