BERT 的治愈力量:如何通过任务特定微调恢复受损的语言模型
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文对BERT、GPT-2和T5三种基于Transformer的预训练语言模型进行了鲁棒性测试,并发现GPT-2在多种输入扰动下表现更好。研究揭示了基于Transformer的模型的扰动特异性弱点。
🎯
关键要点
- 本文对三种基于Transformer的预训练语言模型进行了鲁棒性测试。
- 测试的模型包括BERT、GPT-2和T5。
- 研究比较了这些模型在多种输入扰动下的性能表现。
- 使用CKA和STIR两个度量衡量了预训练模型与微调模型在各层上的表示变化。
- GPT-2在鲁棒性测试中表现更好。
- 丢失名词、动词或改变字符对模型影响最大。
- 研究揭示了基于Transformer的模型的扰动特异性弱点。
➡️