新视角设计下一代时序基础模型,Salesforce推出Moirai-MoE

新视角设计下一代时序基础模型,Salesforce推出Moirai-MoE

💡 原文中文,约3500字,阅读约需9分钟。
📝

内容提要

AIxiv报道了Salesforce、新加坡国立大学和香港科技大学(广州)共同开发的时序预测模型Moirai-MoE。该模型利用稀疏混合专家技术,在39个数据集上显著提升了预测性能,克服了传统模型在多样化时序数据上的局限性,同时在训练效率和推理速度上也表现优异。

🎯

关键要点

  • AIxiv报道了Salesforce、新加坡国立大学和香港科技大学(广州)共同开发的时序预测模型Moirai-MoE。
  • Moirai-MoE利用稀疏混合专家技术,在39个数据集上显著提升了预测性能。
  • 该模型克服了传统模型在多样化时序数据上的局限性,训练效率和推理速度表现优异。
  • 研究者提出了下一代时序预测基础模型Moirai-MoE,采用数据驱动的模型专业化设计。
  • Moirai-MoE在39个数据集上进行了广泛评估,验证了其优越性。
  • Moirai-MoE的核心思想是利用单个输入/输出投影层,委托稀疏混合专家捕获不同时间序列模式。
  • Moirai-MoE采用切块技术将时间序列输入切成小块,并进行标准化以缓解分布迁移问题。
  • Moirai-MoE的MoE层由多个专家网络和门控函数组成,允许专家专注于不同模式的时间序列数据。
  • Moirai-MoE的训练目标设定为优化未来混合分布的对数似然函数,支持点预测和概率预测。
  • 实验结果显示,Moirai-MoE在多个数据集上超越了所有竞争对手,提升幅度达19%。
  • Moirai-MoE在零样本预测设定中表现优异,超越了Google的TimesFM和Amazon的Chronos。
  • 研究首次探索了时序MoE基础模型的内部工作机制,发现模型学习到了频率不变的隐层表示。
  • 随着层数增加,专家选择逐渐收敛,表明模型在进行逐步去噪过程。
➡️

继续阅读