本文提出了一种基于学习的、实例相关的注意力机制来加速 Vision Transformers 网络,解决了由结构化注意力模式引起的语义信息丧失问题。该方法可以在保证准确率的情况下显著减少计算量,达到更优的精度-计算复杂度平衡点。结合 Token 稀疏机制,该方法可以将 Vision Transformers 网络的 FLOPs 降低超过 60%。
完成下面两步后,将自动完成登录并继续当前操作。