大规模语言模型在自动评估中的深入研究
原文中文,约400字,阅读约需1分钟。发表于: 。使用大型语言模型(LLMs)评估文本质量近来变得流行。本文分析了 LLM 评估(Chiang 和 Lee,2023)和 G-Eval(Liu et al.,2023),讨论了评估过程中的细节如何改变 LLMs 给出的评分与人类评分的相关性。我们发现 G-Eval 中使用的自动思维链(CoT)并不总是使 G-Eval 与人类评分更加一致。我们还表明,强制 LLM 仅输出数字评分,如...
本文讨论了使用LLMs评估文本质量的两种方法:LLM评估和G-Eval。研究发现,G-Eval中使用的自动思维链并不总是使G-Eval与人类评分更加一致。同时,强制LLM仅输出数字评分是不理想的。要求LLM解释其自身评分会持续改善ChatGPT与人类评分之间的相关性。