跨模态注意力转换器用于 RGBT 跟踪
原文中文,约300字,阅读约需1分钟。发表于: 。我们提出了一种名为 Cross-modulated Attention Transformer (CAFormer) 的新方法,它在一个统一的注意力模型中执行自注意力、交叉注意力和搜索 - 模板相关性计算,用于 RGBT 跟踪,通过寻求各模态一致性来改善相关性权重的精度,并提出了合作标记消除策略以进一步提高跟踪推理效率和准确性,实验结果表明所提出的 CAFormer 在五个公共 RGBT...
我们提出了一种名为Cross-modulated Attention Transformer (CAFormer)的新方法,用于RGBT跟踪。该方法通过自注意力、交叉注意力和搜索-模板相关性计算,在一个统一的注意力模型中改善相关性权重的精度。实验结果表明,CAFormer在五个公共RGBT跟踪基准上优于同类方法。