TinyLLM: 从多个大型语言模型中学习一个小型学生
原文中文,约500字,阅读约需1分钟。发表于: 。通过知识蒸馏,从多个大型教师语言模型中学习小型学生语言模型 TinyLLM,以解决当前方法存在的知识多样性有限和缺乏丰富的上下文信息等问题,并通过引入上下文示例生成器和 teacher-forcing 链式推理策略来确保合理的推理基于适当情境,从而在两个推理任务的六个数据集上的广泛实验中展示了 TinyLLM 方法的优越性,结果表明尽管模型尺寸较小,但 TinyLLM 可显著优于大型教师语言模型。
本研究提出了一种方法,将大型语言模型(LLMs)的知识提炼为一个更小、更高效且准确的神经网络,以实现在资源受限设备上部署这些模型的挑战。通过对测试数据集的比较,结果显示提炼的学生模型能够比原始神经网络模型获得更高的准确率。此外,学生模型的参数大小相较于原始模型减小了100倍和10倍。该研究为自动评分在典型教育环境中的运用提供了潜力。