看前或看周围?自回归与掩码预训练之间的理论比较

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

本文介绍了MetaMAE,一种通过元学习提高Masked Auto-Encoder(MAE)性能的自监督学习框架。该框架将MAE的掩码重构作为元学习任务,并使用先进的元学习技术增强重构和对齐潜在因素。实验证明,MetaMAE在自监督学习基准DABS中优于之前的基线。

🎯

关键要点

  • MetaMAE是一种通过元学习提高Masked Auto-Encoder(MAE)性能的自监督学习框架。
  • 该框架将MAE的掩码重构视为元学习任务。
  • 使用先进的元学习技术增强重构和对齐潜在因素。
  • 采用基于梯度的元学习来适应变换器编码器的平均潜在因素。
  • 通过任务对比学习最大化平均化和适应化潜在因素之间的对齐。
  • 实验证明MetaMAE在自监督学习基准DABS中优于之前的基线。
➡️

继续阅读