深度学习中小卷积核的高效高阶卷积

原文约300字,阅读约需1分钟。发表于:

通过提出一种新的方法来实现低内存和计算成本的高阶 Volterra 滤波,在 DCNN 训练的前向和反向传播过程中具有计算优势,并基于该方法提出了一种名为 Higher-order Local Attention Block(HLA)的新型注意力模块,并在 CIFAR-100 数据集上进行了测试,显示了在分类任务中的有竞争力的改进。

该文章介绍了一种低内存和计算成本的高阶Volterra滤波方法,使用Higher-order Local Attention Block(HLA)注意力模块进行DCNN训练,通过在CIFAR-100数据集上的测试显示出有竞争力的分类任务改进。

相关推荐 去reddit讨论