通过上下文学习提高大型语言模型对常识生成的多样性

原文约300字,阅读约需1分钟。发表于:

生成常识推理(GCR)需要模型利用常识知识进行推理,同时生成连贯的句子。本论文提出了一种简单的方法来增加大型语言模型(LLMs)生成的多样性,同时保持生成质量。实验结果表明,该方法在生成质量和多样性之间取得了理想的平衡,并且所生成的句子可用于改善现有常识生成器的多样性。

DIV-SE和IDIV-SE方法通过改变输入提示的多样性,在不改变解码过程的前提下,提高了LLM推理的准确性。

相关推荐 去reddit讨论