使用多级优化的掩码自编码器中的下游任务引导掩码学习
原文中文,约200字,阅读约需1分钟。发表于: 。Multi-level Optimized Mask Autoencoder (MLO-MAE) is a novel framework for visual representation learning that leverages end-to-end feedback from downstream tasks to learn an optimal masking...
本文介绍了掩码自动编码器(MAE)作为一种可扩展的自监督计算机视觉学习器,通过编码器和解码器实现图像重建。使用更高比例的保持训练图片完整性的遮罩令牌可以提高训练精度和加速计算。该方法适用于训练大型高容量模型,并具有出色的迁移学习性能。