掩盖式自编码器是高效的类增量学习器
💡
原文英文,约300词,阅读约需1分钟。
📝
内容提要
我们提出了使用Masked Autoencoders (MAEs)解决Class Incremental Learning (CIL)问题,通过双边MAE框架融合图像级和嵌入级,获得更好质量的重建图像和更稳定的表示。实验证实了我们的方法在CIFAR-100、ImageNet-Subset和ImageNet-Full上优于现有技术。
🎯
关键要点
- 提出使用Masked Autoencoders (MAEs)解决Class Incremental Learning (CIL)问题。
- 通过双边MAE框架融合图像级和嵌入级,获得更好质量的重建图像和更稳定的表示。
- 实验证实该方法在CIFAR-100、ImageNet-Subset和ImageNet-Full上优于现有技术。
- MAE是一种可扩展的自监督计算机视觉学习器,能够提高训练精度和加速计算。
- Contrastive Masked Autoencoders (CMAE)结合对比学习和遮蔽图像模型,提升视觉表示能力。
- MAE-CT方法应用于经过预训练的MAE,提升了特征聚类能力。
- Medical Supervised Masked Autoencoder (MSMAE)模型提高了医学图像分类的效率和质量。
- 研究提供了MAE框架下自监督学习的理论解释及其潜在局限性。
- 提出统一的理论框架解释MAE的表现,阐明其成功原因。
- Mix Autoencoder方法通过自监督预训练提升视觉任务表现。
- 研究MAE在视频学习中的应用,观察到高比例遮挡可提高速度和表现。
- i-MAE框架提供了对MAE行为的解释,增强了表示能力。
- SurgMAE架构在手术视频分析中表现出色,证明了其有效性和泛化性能。
➡️