本研究提出了一种新方法,通过跨语言逆解析(CBP)解决跨语言语义解析中的零样本迁移问题。利用多语言预训练模型,CBP在提升目标语言表现的同时保持语义完整性。
基于多语言预训练模型的多语言提示翻译器(MPT)在低资源情景中表现出有效性,能够转移软提示到下游任务中,尤其在XNLI的少样本设置中,MPT比基线方法更为突出。
本文介绍了使用Conformer架构扩展自监督方法的多语言预训练模型,研究发现预训练的语音模型在编码语言的区分信息方面表现最佳。通过微调预训练的Conformer模型,可以实现类似于语言识别最先进系统的结果,模型参数比当前系统少了五倍,并通过NVIDIA NeMo工具包开源。
本文使用Conformer架构扩展了多语言预训练模型的自监督方法,发现预训练的语音模型在编码语言的区分信息方面表现最佳。嵌入对于分类未见过的语言和不同的声学环境具有鲁棒性,无需额外训练。微调预训练的Conformer模型后,实现了类似于语言识别最先进系统的结果。模型参数比当前系统少了五倍,并通过NVIDIA NeMo工具包开源了该模型。
完成下面两步后,将自动完成登录并继续当前操作。