TinyLlama:一种开源的小型语言模型
原文中文,约400字,阅读约需1分钟。发表于: 。TinyLlama 是一个小型预训练语言模型,通过利用开源社区的先进技术(如 FlashAttention)提高计算效率,在一系列下游任务中表现出色,超过了同规模的现有开源语言模型。
本文介绍了使用泰米尔语令牌增强开源的LLaMA模型来解决现有切尖模型中泰米尔语等语种的代表性不足所导致的性能不佳问题。通过LoRA方法进行高效的模型训练,并引入了Alpaca数据集和OpenOrca数据集的子集进行微调。实验结果显示在泰米尔语文本生成方面有显著的性能改进,对印度语言切尖模型的应用具有重要意义。通过公开模型、数据集和代码,促进语言建模领域的创新。