通过混合思维提炼,提高小型语言模型的数学推理能力
原文中文,约300字,阅读约需1分钟。发表于: 。通过将大型语言模型的数学推理能力压缩到亿级参数的小型语言模型中,不影响性能,以实现先进的大型语言模型民主化。我们提出了 EoTD(Equation-of-Thought Distillation)技术,将推理过程封装到基于方程的表示中,构建了 EoTD 数据集用于微调小型语言模型。此外,我们提出了 MTD(Mix Thoughts...
大型语言模型(LLMs)在自然语言处理领域取得显著进展。为了解决资源受限环境中的挑战,提出了一种双重方法:将LLMs的自我评价能力提取到SLMs中,采用综合的蒸馏过程。实验表明,该方法显著提高了蒸馏SLMs的性能。