该研究提出了一种无监督的原型知识蒸馏网络(ProKD),通过原型对齐和基于原型的自训练两种方法,提高模型在跨语言命名实体识别问题上的表现。实验结果表明该方法有效。
该文介绍了一种用于跨语言命名实体识别的高效建模框架,利用知识蒸馏和一致性训练,并使用预训练的大型语言模型进行知识传递。仅使用30个标记样本,该模型可以将商家、金额和其他字段的识别从英语推广到阿拉伯语。该框架对于开发多语言应用程序具有重要意义。
该文介绍了一个高效的建模框架,用于半结构化文本数据中的跨语言命名实体识别。该方法利用预训练在源语言上的大型语言模型的知识,通过学生 - 教师关系进行知识蒸馏,并在低资源目标语言上采用无监督的一致性训练。
完成下面两步后,将自动完成登录并继续当前操作。