TinyLLM: 从多个大型语言模型中学习一个小型学生
BriefGPT - AI 论文速递 · 2024-02-07T00:00:00Z
本研究提出了一种方法,将大型语言模型(LLMs)的知识提炼为一个更小、更高效且准确的神经网络,以实现在资源受限设备上部署这些模型的挑战。通过对测试数据集的比较,结果显示提炼的学生模型能够比原始神经网络模型获得更高的准确率。此外,学生模型的参数大小相较于原始模型减小了100倍和10倍。该研究为自动评分在典型教育环境中的运用提供了潜力。
原文中文,约500字,阅读约需1分钟。