PEDAL:利用多样本增强贪婪解码的效果
📝
内容提要
本研究解决了在大语言模型(LLM)中使用自一致性技术时的准确性和推理成本问题。我们提出的PEDAL方法,通过结合多样本提示与LLM聚合,实现了在文本生成任务中提高准确性,并且在SVAMP和ARC数据集上表现出比贪婪解码策略更好的准确性和更低的推理成本。
➡️
本研究解决了在大语言模型(LLM)中使用自一致性技术时的准确性和推理成本问题。我们提出的PEDAL方法,通过结合多样本提示与LLM聚合,实现了在文本生成任务中提高准确性,并且在SVAMP和ARC数据集上表现出比贪婪解码策略更好的准确性和更低的推理成本。