大型语言模型(LLMs)在多种任务中表现优异,但在高风险环境中,了解其输出的可靠性至关重要。本文探讨了LLMs如何有效表达答案的信心,并提出了一种轻量级训练策略Self-REF,通过引入信心标记来提升答案准确性。研究表明,信心标记显著改善了后续任务中的路由和拒绝学习效果。
RAG(检索增强生成)系统通过上下文压缩技术提高检索效率和答案准确性。上下文压缩包括选择性保留、摘要和句子抽取三种方式,能有效减少无关信息。通过预处理、向量化、压缩和生成答案,RAG系统优化文档处理,节省内存并加快推理速度。
本研究质疑大语言模型对最终答案的依赖,提出通过分析中间推理步骤来提高答案准确性,实验验证了该方法在多个模型和数学推理数据集上的有效性。
本研究分析了大型语言模型(LLM)在多跳问题回答中的解码方法,提出结合ReAct框架与解码策略以提高答案准确性,特别是在推理和外部知识获取方面,解决了因事实不准确导致的“幻觉”现象。
本研究提出了FANS框架,旨在解决大语言模型在自然语言数学推理中的不足。通过将数学问题转化为Lean4定理并验证答案,显著提高了答案选择的准确性。
本研究提出了一种新型的RAG系统,通过引入评估模块,提高了在大数据环境下的答案准确性和效率,为高精度问答应用奠定了基础。
最近的大型语言模型 (LLMs) 的进展使得思维链 (CoT) 提醒的紧急能力增加。为了设计 LLM 提示,有一个重要的设置,称为演示选择。我们介绍了一种新方法,称为推理技能发现 (RSD),它使用无监督学习创建合理性的潜在空间表示,同时学习一个推理策略来确定给定问题所需的推理技能。RSD 在多个推理任务中的答案准确性方面优于现有方法多达 6%。
完成下面两步后,将自动完成登录并继续当前操作。