本研究提出了一种名为EFL的新方法,将自然语言处理任务重新表述为蕴含任务,并在少样本情况下微调模型。该方法与无监督对比学习数据增强方法相结合,易于扩展为多语言少样本学习。在18个标准NLP任务上评估,结果显示该方法在少样本学习方面性能提高了12%,与GPT-3相近。
本研究提出了一种名为EFL的新方法,将自然语言处理任务重新表述为蕴含任务,并通过微调模型证明该方法可以与无监督对比学习数据增强方法相结合,易于扩展为多语言少样本学习。在18个标准NLP任务上评估,结果显示该方法将现有SOTA少样本学习方法的性能提高了12%,在相同数据量下,可以达到与GPT-3相近的少样本性能。
完成下面两步后,将自动完成登录并继续当前操作。