混合 Distil-BERT:用于孟加拉语、英语和印地语的混合语言建模

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

该论文介绍了 Tri-Distil-BERT 和 Mixed-Distil-BERT 两个多语言模型,能够在多个 NLP 任务上与更大的模型相竞争。这两个模型的两层预训练方法为多语言和混合代码语言理解提供了高效的选择。

➡️

继续阅读