本文对BERT、GPT-2和T5三种基于Transformer的预训练语言模型进行了鲁棒性测试,并发现GPT-2在多种输入扰动下表现更好。研究揭示了基于Transformer的模型的扰动特异性弱点。
完成下面两步后,将自动完成登录并继续当前操作。