看前或看周围?自回归与掩码预训练之间的理论比较
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
本文介绍了MetaMAE,一种通过元学习提高Masked Auto-Encoder(MAE)性能的自监督学习框架。该框架将MAE的掩码重构作为元学习任务,并使用先进的元学习技术增强重构和对齐潜在因素。实验证明,MetaMAE在自监督学习基准DABS中优于之前的基线。
🎯
关键要点
- MetaMAE是一种通过元学习提高Masked Auto-Encoder(MAE)性能的自监督学习框架。
- 该框架将MAE的掩码重构视为元学习任务。
- 使用先进的元学习技术增强重构和对齐潜在因素。
- 采用基于梯度的元学习来适应变换器编码器的平均潜在因素。
- 通过任务对比学习最大化平均化和适应化潜在因素之间的对齐。
- 实验证明MetaMAE在自监督学习基准DABS中优于之前的基线。
🏷️
标签
➡️