SMCA:港中文提出注意力图校准的DETR加速方案 | ICCV 2021 - 晓飞的算法工程笔记
原文中文,约7500字,阅读约需18分钟。发表于: 。为了加速DETR收敛,论文提出了简单而有效的Spatially Modulated Co-Attention(SMCA)机制,通过在初始边界框位置给予较高的协同注意力响应值的约束来构建DETR的回归感知协同注意力。此外,将SMCA扩展为多头注意力和尺度选择注意力后,对比DETR可以实现更好的性能(1
该文章介绍了一种名为Spatially Modulated Co-Attention(SMCA)的机制,用于加速目标检测模型DETR的收敛速度。SMCA通过在初始边界框位置给予较高的协同注意力响应值的约束来改进DETR的回归感知协同注意力。研究人员还将SMCA扩展为多头注意力和尺度选择注意力,以进一步提高DETR的性能。实验证明,SMCA可以显著加快DETR的训练速度,并在COCO 2017数据集上取得了优于SOTA模型的性能。