跨模态注意力转换器用于 RGBT 跟踪
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
我们提出了一种名为Cross-modulated Attention Transformer (CAFormer)的新方法,用于RGBT跟踪。该方法通过自注意力、交叉注意力和搜索-模板相关性计算,在一个统一的注意力模型中改善相关性权重的精度。实验结果表明,CAFormer在五个公共RGBT跟踪基准上优于同类方法。
🎯
关键要点
- 提出了一种名为Cross-modulated Attention Transformer (CAFormer)的新方法。
- CAFormer在一个统一的注意力模型中执行自注意力、交叉注意力和搜索-模板相关性计算。
- 该方法通过寻求各模态一致性来改善相关性权重的精度。
- 提出了合作标记消除策略以提高跟踪推理效率和准确性。
- 实验结果表明CAFormer在五个公共RGBT跟踪基准上优于同类方法。
➡️