CITING:大型语言模型为指导调整课程创作
原文约500字/词,阅读约需2分钟。发表于: 。利用人工智能模型替代人类作为教师,通过研究生成学生成绩的修订,构建了 Curriculum Instruction TunING (CITING) 方法,提高了大型语言模型的表达、深度和全面性能,在 GPT-4 评估上取得了 79.4% 的胜率。
本研究评估了10个开源指导式LLMs在代码理解和生成任务上的表现。结果显示,在零样本设置下,指导式LLMs表现非常有竞争力,有时比特定于每个下游任务进行微调的小型SOTA模型表现更好。在少样本设置下,添加演示示例可以帮助指导式LLMs表现更好,但有时会导致不稳定甚至更差的表现。在微调设置下,与零样本/一样本的表现相比,微调可以进一步提高模型的性能。此外,指导式LLMs的性能优于小型SOTA模型和未进行指导微调的相似规模LLMs。作者提出了有关模型和使用建议、性能和成本的权衡以及未来方向的实用影响。