本研究提出了一种新的图增强纹理编码网络(GraphTEN),有效解决了纹理识别中的非局部上下文关系建模问题,显著提升了识别性能。
本研究提出VORTEX方法,利用视觉变换器(ViTs)进行纹理识别,克服了深度卷积神经网络的局限性。VORTEX通过无序编码和多层次标记嵌入,在多个纹理数据集上展现出优越的性能和计算效率。
该研究评估了21个预训练Vision Transformer架构在纹理识别中的性能,结果显示Vision Transformers在纹理识别方面表现优于其他模型,尤其在处理互联网纹理任务时更突出。ViT-B with DINO pre-training,BeiTv2,Swin architecture和EfficientFormer被认为是更具潜力的模型。此外,ViT-B和BeiT(v2)在GPU上的特征提取时间比ResNet50更短,实现了更高的效率。
完成下面两步后,将自动完成登录并继续当前操作。