我们提出了一种自我监督学习框架,名为LC-MAE,能够利用全局上下文理解视觉表示,提高准确率。在ImageNet-1K上,LC-MAE实现了84.2%的top-1准确率,比基准模型提高了0.6%。在下游任务中也取得了显著性能提升。
我们提出了一种自我监督学习框架,称为LC-MAE,能够利用全局上下文理解视觉表示,减少输入的空间冗余。LC-MAE在ImageNet-1K上使用ViT-B实现了84.2%的top-1准确率,比基准模型提高了0.6%。在语义分割和细粒度视觉分类任务中表现出色,并在鲁棒性评估指标上取得了优异结果。
研究人员对使用雷达感知能力解决自主车辆感知问题感兴趣。他们提出了自我监督学习框架,利用无标签雷达数据预训练雷达嵌入,通过雷达对雷达和雷达对视觉的对比损失学习通用表示。该框架在目标检测任务中提高了5.8%的mAP准确度。
完成下面两步后,将自动完成登录并继续当前操作。