高效提升预训练模型的鲁棒性
💡
原文中文,约200字,阅读约需1分钟。
📝
内容提要
该研究提出了一种将对抗训练引入自监督学习的通用预训练模型,可提高模型强健性和节省计算成本,对微调任务有两种作用。实验表明,该框架在CIFAR-10数据集上性能大幅提升,并提出了一种集成策略来提高自监督预训练模型的强健性。
🎯
关键要点
- 研究将对抗训练引入自监督学习中,提出了一种通用的预训练模型。
- 该模型可以提高最终模型的强健性并节省计算成本。
- 对后续的微调任务有两种作用。
- 实验表明,该框架在CIFAR-10数据集上性能大幅提升。
- 不同的自监督预训练模型具有不同的对抗性漏洞。
- 提出了一种集成策略来提高自监督预训练模型的强健性。
➡️