Xmodel-LM 技术报告
原文中文,约300字,阅读约需1分钟。发表于: 。我们介绍了 Xmodel-LM,这是一个在超过 2 万亿个标记上进行预训练的紧凑高效的 1.1B 语言模型,通过在我们自建的数据集 (Xdata) 上进行训练,该数据集在下游任务优化的基础上平衡了中文和英文文本,尽管模型规模较小,但 Xmodel-LM 表现出色,显著超过了类似规模的现有开源语言模型。我们的模型检查点和代码在 GitHub 上公开可访问。
Xmodel-LM是一个紧凑高效的1.1B语言模型,经过在超过2万亿个标记上的预训练。尽管规模较小,但Xmodel-LM表现出色,超过了类似规模的开源语言模型。模型检查点和代码在GitHub上公开可访问。