MCQG-SRefine:带有迭代自我批评、修正和比较反馈的多选题生成与评估
原文中文,约300字,阅读约需1分钟。发表于: 。本研究针对当前大型语言模型在生成专业领域多选题时所面临的知识滞后和质量不足等问题,提出了一种新的框架MCQG-SRefine。该方法通过结合专家驱动的提示工程与迭代的自我批评和修正反馈,显著提升了多选题的质量与难度,同时引入了一种依赖LLM的自动评估指标,取代了复杂而昂贵的人工评估过程。
本研究提出MCQG-SRefine框架,通过专家提示和自我修正,提升大型语言模型生成专业领域多选题的质量和难度,并用LLM自动评估替代人工评估。