本研究探讨了局部-全局注意力模型中的窗口大小选择,提出了RATTENTION变体,利用线性注意力机制捕捉窗口外信息。实验结果表明,RATTENTION在512窗口大小下的性能与全注意力模型相当,同时保持了训练效率,适用于短上下文场景。
本研究提出了一种新型的局部-全局注意力机制,有效解决了对象检测中局部与全局特征平衡不足的问题,显著提高了多类和小物体的检测能力。
完成下面两步后,将自动完成登录并继续当前操作。