Lag-Llama: 面向时间序列预测的基础模型
💡
原文中文,约500字,阅读约需1分钟。
📝
内容提要
该文介绍了使用大型语言模型(LLMs)将时间序列编码为数字字符串,并进行预测的方法。LLMs能够在零样本外推时间序列,其性能与专用时间序列模型相当。作者提出了有效令牌化时间序列数据并将离散分布转换为对连续值的高度灵活的密度的流程,以提高性能。LLMs能够自然地表示多模态分布,处理缺失数据,容纳文本边信息,并回答问题以帮助解释预测。作者还展示了GPT-4可能比GPT-3表现更差的原因。
🎯
关键要点
- 通过将时间序列编码为数字字符串,可以将时间序列预测视为文本中的下一个标记预测。
- 大型语言模型(LLMs)如 GPT-3 和 LLaMA-2 在零样本外推时间序列方面表现优异,性能与专用时间序列模型相当。
- 提出了有效令牌化时间序列数据并将离散分布转换为对连续值的高度灵活的密度的流程,以提高性能。
- LLMs 能够自然表示多模态分布,结合对简洁性和重复性的偏好,与时间序列的显著特征相一致。
- LLMs 可以自然处理缺失数据,无需插补,并能够容纳文本边信息,回答问题以帮助解释预测。
- 增加模型大小通常会提高时间序列性能,但 GPT-4 由于令牌化数字和不确定性校准问题,可能表现不如 GPT-3。
➡️