经济适用的微调大型语言模型为课程特定的多项选择题提供更好的答案
📝
内容提要
本研究针对教育领域中大型语言模型(LLMs)的成本效益进行了调查,特别关注这些模型在回答多项选择题(MCQs)时的表现。通过使用不同规模的LLaMA-2预训练模型以及教材作为微调材料,我们发现基于教材的小型微调模型在准确度上优于大型通用模型,表明LLMs在回答MCQs方面更加经济适用。
🏷️
标签
➡️