Lag-Llama: 面向时间序列预测的基础模型
原文中文,约500字,阅读约需1分钟。发表于: 。构建时间序列预测的基础模型并研究其缩放行为,我们提出了 Lag-Llama,这是一个通用的单变量概率时间序列预测模型,它是在大量时间序列数据上训练而成的。该模型表现出了良好的零样本预测能力,在未见过的 “超出分布范围” 的时间序列数据上优于监督基线模型。我们使用平滑断裂幂律来拟合和预测模型的缩放行为。开源代码可在此网址获取。
该文介绍了使用大型语言模型(LLMs)将时间序列编码为数字字符串,并进行预测的方法。LLMs能够在零样本外推时间序列,其性能与专用时间序列模型相当。作者提出了有效令牌化时间序列数据并将离散分布转换为对连续值的高度灵活的密度的流程,以提高性能。LLMs能够自然地表示多模态分布,处理缺失数据,容纳文本边信息,并回答问题以帮助解释预测。作者还展示了GPT-4可能比GPT-3表现更差的原因。