高效提升预训练模型的鲁棒性

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

该研究提出了一种将对抗训练引入自监督学习的通用预训练模型,可提高模型强健性和节省计算成本,对微调任务有两种作用。实验表明,该框架在CIFAR-10数据集上性能大幅提升,并提出了一种集成策略来提高自监督预训练模型的强健性。

🎯

关键要点

  • 研究将对抗训练引入自监督学习中,提出了一种通用的预训练模型。
  • 该模型可以提高最终模型的强健性并节省计算成本。
  • 对后续的微调任务有两种作用。
  • 实验表明,该框架在CIFAR-10数据集上性能大幅提升。
  • 不同的自监督预训练模型具有不同的对抗性漏洞。
  • 提出了一种集成策略来提高自监督预训练模型的强健性。
➡️

继续阅读