长期时间序列预测中的有效模型规模再思考
原文中文,约300字,阅读约需1分钟。发表于: 。通过条件相关性和自相关性作为研究工具,我们引入了一种轻量级的 HDformer 模型,该模型使用分层分解技术,不仅推翻了模型扩展的趋势,而且在大量减少计算和参数的同时实现了精确的长期时间序列预测,超越了现有的最先进模型,表明在长期时间序列预测中,模型的大小并不一定更好。
本研究提出了一种通用的多尺度框架,可改进基于Transformer的时间序列预测模型的性能。研究结果表明,该方法可将性能提高到38.5%,且优于基线模型。