将 LLMs 调整至希伯来语:揭示具有增强词汇和指导能力的 DictaLM 2.0
原文中文,约500字,阅读约需2分钟。发表于: 。在这篇论文中,我们介绍了 DictaLM2.0 和 DictaLM2.0-Instruct 两个衍生自 Mistral 模型的大型语言模型(LLMs),它们在包含约 2000 亿个标记的希伯来语和英文语料库上进行了训练。我们提出了一种针对新语言的预训练模型的专门技术,并介绍了这些技术与从头开始训练或在资源丰富的英文之类的语言上进一步训练现有模型的方法有着显著不同。此外,我们对...
本论文介绍了两个大型语言模型(LLMs)DictaLM2.0和DictaLM2.0-Instruct,它们在希伯来语和英文语料库上进行了训练。作者提出了一种针对新语言的预训练模型的技术,并对DictaLM2.0-Instruct进行了微调。他们还引入了一个新的希伯来语LLM评估基准套件,用于评估模型性能。这项工作不仅解决了在资源匮乏的语言中训练LLMs的问题,还为多语言自然语言处理领域做出了贡献。