本文介绍了MetaMAE,一种通过元学习和任务对比学习来提高不同模态下Masked Auto-Encoder(MAE)性能的自监督学习框架。实验证明MetaMAE在自监督学习基准中表现优秀。
本文介绍了MetaMAE,一种通过元学习提高Masked Auto-Encoder(MAE)性能的自监督学习框架。该框架将MAE的掩码重构作为元学习任务,并使用先进的元学习技术增强重构和对齐潜在因素。实验证明,MetaMAE在自监督学习基准DABS中优于之前的基线。
完成下面两步后,将自动完成登录并继续当前操作。