面向时间序列推理的多模态大语言模型研究
原文中文,约400字,阅读约需1分钟。发表于: 。本研究针对现有时间序列推理方法的不足,提出了一种新颖的多模态时间序列大语言模型(MLLM)方法,旨在实现跨领域的可泛化信息学习。通过引入轻量级时间序列编码器和链式思维增强任务,我们的模型在零样本推理任务中表现优于GPT-4o,展示了在时间序列特点提取和思维路径生成上的显著进步。
大型语言模型(LLMs)如GPT-3和LLaMA-2可以通过编码时间序列为数字字符串来外推时间序列,性能与专用时间序列模型相当。LLMs能够自然地表示多模态分布,处理缺失数据,容纳文本边信息,并回答问题以帮助解释预测。增加模型大小通常提高时间序列性能,但GPT-4可能由于令牌化数字和较差的不确定性校准而表现更差。