我们提出了一种自我监督学习框架,名为LC-MAE,能够利用全局上下文理解视觉表示,提高准确率。在ImageNet-1K上,LC-MAE实现了84.2%的top-1准确率,比基准模型提高了0.6%。在下游任务中也取得了显著性能提升。
我们提出了一种自我监督学习框架,称为LC-MAE,能够利用全局上下文理解视觉表示,减少输入的空间冗余。LC-MAE在ImageNet-1K上使用ViT-B实现了84.2%的top-1准确率,比基准模型提高了0.6%。在语义分割和细粒度视觉分类任务中表现出色,并在鲁棒性评估指标上取得了优异结果。
LC-MAE是一种自我监督学习框架,利用全局上下文理解视觉表示,减少输入的空间冗余。在ImageNet-1K上使用ViT-B实现了84.2%的top-1准确率,比基准模型提高了0.6%。在下游任务中,LC-MAE取得了显著的性能提升,并在多个鲁棒性评估指标上表现优异。
完成下面两步后,将自动完成登录并继续当前操作。