只需评分标准:通过特定问题评分标准增强基于大语言模型的代码评估 本研究针对基于大语言模型(LLM)的代码评估问题,提出了利用特定问题评分标准的多代理新方法,以填补现有的研究空白。通过引入新的数据集和评估指标,该方法显著提高了逻辑评估的准确性,更好地实现了与教学目标一致的反馈,超越了仅仅依赖语法正确性的评价。 本研究提出了一种基于大语言模型的多代理方法,旨在提高代码评估的逻辑准确性,并提供符合教学目标的反馈。 代码评估 多代理 大语言模型 教学反馈 逻辑准确性