本文讨论了使用不受监督的多语言学习(UCL)共同培训语言模型的原则,发现共同训练方法是UCL的关键步骤。同时,探讨了不同解读设置对多语言学习性能的影响,并总结了对多语言性的贡献因素的观点。最后,研究者将词汇对齐应用于mBERT,并研究了不同词典组的对齐贡献对下游性能的影响。
完成下面两步后,将自动完成登录并继续当前操作。