本研究提出了多种基于Transformer的时间序列预测模型,包括多尺度框架、图结构模型和自适应分解方法,显著提升了预测性能。实验结果显示,这些模型在多个数据集上优于现有方法,展现了良好的泛化能力和效率。
RefreshNet是一个多尺度框架,结合了卷积自编码器和多个递归神经网络模块,具有高效率和准确性,尤其在长期预测方面表现出优势。
本研究提出了一种通用的多尺度框架,可改进基于Transformer的时间序列预测模型的性能。研究结果表明,该方法可将性能提高到38.5%,且优于基线模型。
本研究提出了一种通用的多尺度框架,用于改进基于Transformer的时间序列预测模型的性能。通过多尺度共享权重迭代地改进预测的时间序列,并引入架构适应和特殊设计的标准化方案。研究结果表明,该方法将性能提高了38.5%。代码公开在指定的URL上。
完成下面两步后,将自动完成登录并继续当前操作。