本文介绍了一种基于课程学习的掩模自编码器(CL-MAE),通过增加自监督重建任务的复杂性,提高模型学习更复杂和可转移的表示能力。
本文介绍了一种基于课程学习的掩模自编码器(CL-MAE),通过增加自监督重建任务的复杂性,提高模型学习更复杂和可转移的表示能力。通过在ImageNet数据集上的训练和五个下游任务的实证结果验证了该方法的成功应用。
完成下面两步后,将自动完成登录并继续当前操作。