TTMs:用于提升多变量时间序列的零样本和少样本预测的快速多层微型时间混合器
原文中文,约500字,阅读约需1分钟。发表于: 。利用预训练模型进行时间序列预测方面的研究,提出了 Multi-level Tiny Time Mixers(TTM)方法,通过小型模型、自适应补丁、数据增强和分辨率前缀调整来有效地模拟跨通道相关性和整合外部信号,实现了显著的准确性提升和参数规模大幅减小。
通过数字编码时间序列,大型语言模型(LLMs)如GPT-3和LLaMA-2能够在零样本外推时间序列,性能与专用时间序列模型相当。我们提出了令牌化时间序列数据并将离散分布转换为连续值的密度流程,以提高性能。LLMs能够自然地表示多模态分布,处理缺失数据,容纳文本边信息,并回答问题以帮助解释预测。GPT-4可能由于数字令牌化和不确定性校准而表现较差。