TTMs:用于提升多变量时间序列的零样本和少样本预测的快速多层微型时间混合器
💡
原文中文,约500字,阅读约需1分钟。
📝
内容提要
通过数字编码时间序列,大型语言模型(LLMs)如GPT-3和LLaMA-2能够在零样本外推时间序列,性能与专用时间序列模型相当。我们提出了令牌化时间序列数据并将离散分布转换为连续值的密度流程,以提高性能。LLMs能够自然地表示多模态分布,处理缺失数据,容纳文本边信息,并回答问题以帮助解释预测。GPT-4可能由于数字令牌化和不确定性校准而表现较差。
🎯
关键要点
- 通过将时间序列编码为数字字符串,可以将时间序列预测视为文本中的下一个标记预测。
- 大型语言模型(LLMs)如GPT-3和LLaMA-2能够在零样本外推时间序列,其性能与专用时间序列模型相当或更好。
- 提出了有效的令牌化时间序列数据和将离散分布转换为连续值的密度流程,以提高性能。
- LLMs能够自然表示多模态分布,结合简洁性和重复性的偏好,适应时间序列的特征。
- LLMs能够处理缺失数据,无需插补,并能容纳文本边信息,回答问题以帮助解释预测。
- 增加模型大小通常提高时间序列性能,但GPT-4由于令牌化数字和不确定性校准可能表现较差。