基于注释指南的知识增强:用于提升教育文本分类的大型语言模型
原文中文,约500字,阅读约需2分钟。发表于: 。使用基于批注指南的知识增强(AGKA)方法,我们对大型语言模型(LLMs)进行了综合评估,并在学习参与度分类(LEC)任务上取得了改进。AGKA 利用 GPT 4.0 从批注指南中检索标签定义知识,并应用随机欠采样器选择一些典型示例,通过六个 LEC 数据集对其进行了系统评估。结果表明,AGKA 可以提升非微调的 LLMs,在简单的二分类任务上 GPT 4.0 的 AGKA...
使用基于批注指南的知识增强方法评估了大型语言模型,结果显示GPT 4.0在简单的二分类任务上优于BERT和RoBERTa等全微调模型,但在需要深入理解复杂语义信息的多类任务中稍逊。与Llama 3 70B结合的AGKA具有潜力,但难以区分多类分类中名称相似的标签。