sTransformer:用于时间序列预测的模块化方法,提取序列间和时间信息
原文中文,约300字,阅读约需1分钟。发表于: 。本研究针对现有Transformer模型在长期时间序列预测中的不足,提出了sTransformer,结合序列和时间卷积网络(STCN)以及序列引导的掩码注意机制,从而有效捕捉序列间和时间信息,同时保持模块可扩展性。研究结果表明,该模型在长期时间序列预测任务上超过了现有先进模型,为时间序列任务提供了可靠的基线。
通过引入PatchMixer模型,解决了Transformer模型在时间序列预测任务中的挑战。PatchMixer具有自注意力机制和深度可分离卷积,能提取局部特征和全局相关性。实验结果显示,PatchMixer在性能上超过了最先进的方法和最佳的CNN,提升了3.9%和21.2%,速度是最先进方法的2-3倍。将发布代码和模型。