融合词汇和句法知识的无监督跨语言迁移 原文约300字,阅读约需1分钟。发表于:2024-04-25T00:00:00Z。 本文提出了一种名为 “Lexicon-Syntax 增强多语言 BERT” 的新框架,该框架结合了词汇和句法知识,并通过多种技术增强其学习能力,在零样本跨语言传递的任务中取得了优异的成绩。 本文提出了一种生成模型,通过结构化的正则先验利用标记源数据和未标记目标数据联合学习源模型和目标模型的参数来解决跨语言迁移的问题。该方法在10种语言中获得了平均5.2%和8.3%的绝对改善。 无监督 正则先验 源模型 生成模型 目标模型 跨语言迁移