深度时间序列预测中的隐性推理
原文中文,约400字,阅读约需1分钟。发表于: 。本研究解决了时间序列模型推理能力评估的空白,提出了一种系统性的方法来衡量深度时间序列预测模型的隐性推理能力。研究发现某些线性、基于多层感知机和基于补丁的Transformer模型在分布外场景中表现出有效的泛化能力,表明其在简单模式记忆之外的推理能力值得深入探讨。
大型语言模型(LLMs)如GPT-3和LLaMA-2可以通过编码时间序列为数字字符串来外推时间序列,性能与专用时间序列模型相当。LLMs能够自然地表示多模态分布,处理缺失数据,容纳文本边信息,并回答问题以帮助解释预测。增加模型大小通常会提高时间序列的性能,但GPT-4可能由于令牌化数字和较差的不确定性校准而表现更差。