WTConv:小参数大感受野,基于小波变换的新型卷积 | ECCV'24 - 晓飞的算法工程笔记
原文中文,约6200字,阅读约需15分钟。发表于: 。近年来,人们尝试增加卷积神经网络(CNN)的卷积核大小,以模拟视觉Transformer(ViTs)自注意力模块的全局感受野。然而,这种方法很快就遇到了上限,并在实现全局感受野之前就达到了饱和。论文证明通过利用小波变换(WT),实际上可以获得非常大的感受野,而不会出现过参数化的情况。例如,对于一个
研究者尝试通过增加CNN的卷积核大小来模拟ViTs的全局感受野,但效果有限。论文提出用小波变换(WT)实现大感受野,避免过参数化。新方法WTConv层可替代现有架构,提升多频响应能力,适用于图像分类和语义分割。WTConv通过小波分解和小卷积核扩展感受野,参数增长缓慢,增强对低频信息的响应,提高CNN的鲁棒性和形状识别能力。