变量时间序列变压器中的关联注意力
原文中文,约300字,阅读约需1分钟。发表于: 。我们提出了一种新颖的相关注意力机制,能够高效地捕捉多元时间序列数据中不同特征之间的复杂相互关系,并能够与现有的基于 Transformer 的模型无缝集成,提高效率。在多种任务中,包括插补、异常检测和分类,相关注意力机制与先前的 Transformer 模型相结合,形成了更好的编码器架构,并且取得了先进的结果。
本文介绍了一种灵活的多头线性注意力(FMLA)方法,通过与可变形卷积块和在线知识蒸馏进行分层交互来提高局部感知能力。同时,还提出了一种简单但有效的掩码机制,以减少时间序列中的噪声影响并降低FMLA的冗余。结果表明该算法在top-1准确性方面具有可比性,并以更低的复杂度实现了更好的效率。