Lag-Llama: 面向时间序列预测的基础模型
该文介绍了使用大型语言模型(LLMs)将时间序列编码为数字字符串,并进行预测的方法。LLMs能够在零样本外推时间序列,其性能与专用时间序列模型相当。作者提出了有效令牌化时间序列数据并将离散分布转换为对连续值的高度灵活的密度的流程,以提高性能。LLMs能够自然地表示多模态分布,处理缺失数据,容纳文本边信息,并回答问题以帮助解释预测。作者还展示了GPT-4可能比GPT-3表现更差的原因。
原文中文,约500字,阅读约需1分钟。