基于多语言预训练模型的多语言提示翻译器(MPT)在低资源情景中表现出有效性,能够转移软提示到下游任务中,尤其在XNLI的少样本设置中,MPT比基线方法更为突出。
本文介绍了使用变分信息瓶颈(VIB)来压制过拟合和提高低资源情景中的传输学习的方法,并证明其成功地降低了过拟合,提高了泛化能力。实验结果表明,该方法在自然语言推断数据集中更好地泛化到领域外数据集,并在13个领域外自然语言推断基准测试中提高了泛化能力。
完成下面两步后,将自动完成登录并继续当前操作。