我本可以这样问:改写无法回答的问题
原文中文,约300字,阅读约需1分钟。发表于: 。通过构建评估基准以及对现有和新的数据集进行研究,我们发现大型语言模型在改写未能回答的问题方面的能力有限,这表明它们无法有效地协助用户改进他们的问题。
本文介绍了一种名为“重述和回答”(RaR)的方法,通过重述和展开人类问题,提高了大型语言模型(LLMs)的性能。实验证明这种方法在各种任务上显著提高了不同模型的性能,并与Chain-of-Thought(CoT)方法进行了比较,发现两者结合使用效果更好。这项工作对提高LLM性能和公正评估LLM能力具有重要意义。