本研究探讨了多语言预训练语言模型在捕捉跨语言抽象语言表示方面的能力。发现模型在多语言文本上进行训练后仍存在语言特定的差异,句法结构并不共享。
本论文研究了多语言预训练语言模型在问答任务中的校准性质,包括不同维度的研究和改进策略。实验证明了自动翻译数据增强是提高模型校准性的高效技术。进行了模型大小和多语言模型与单语模型的比较实验。
本论文研究了多语言预训练语言模型在问答任务中的校准性质,包括分布内、分布外和跨语言迁移设置下的校准情况,以及改进校准性的策略和技术。实验证明了自动翻译数据增强是提高模型校准性的高效技术,并进行了模型大小和多语言模型与单语模型的比较实验。
研究发现多语言预训练语言模型一致性存在差异,提出了基于排名的一致性评估指标,并分析了一致性决定因素。结果显示增加模型规模可以提高大多数语言的事实检测准确性,但无法改善跨语言一致性。案例研究表明,新的知识仅传递给与英语具有较高排名一致性得分的语言。
该研究评估了基于结构化剪枝在多语言预训练语言模型上的设置、算法和效率,并提出了一种动态稀疏化的方法。实验结果填补了关于多语言预训练模型上的结构化剪枝研究的空白,为未来的研究提供启示。
完成下面两步后,将自动完成登录并继续当前操作。