本研究分析了大型语言模型(LLM)在多跳问题回答中的解码方法,提出结合ReAct框架与解码策略以提高答案准确性,特别是在推理和外部知识获取方面,解决了因事实不准确导致的“幻觉”现象。
本研究提出了一种改进的解码方法,解决了脑信号解码在重构多模态刺激中的不足,提升了刺激再现质量,对理解神经机制和推动人工智能发展具有重要意义。
本研究提出了一种改进的解码方法,旨在解决大型语言模型在文本生成中存在的重复训练数据和多样性不足的问题。该方法通过分析概率差异,增加低概率但准确词汇的生成机会,从而提升生成质量和多样性。
实体对齐是多源知识图谱集成的关键。我们提出了一种新型解码方法Triple Feature Propagation(TFP),通过最小化狄利克雷能量进行优化,利用多视图结构信息,显著提升实体对齐效果,计算时间少于6秒,为未来方法设立新基准。
研究分析了文本生成中传统解码方法导致的输出分布扭曲问题。通过全局归一化解码和梅特罗波利斯-海斯廷斯算法,发现全局解码保持分布完整但性能不如局部解码。扭曲是局部解码的重要特征。
研究分析了大型语言模型在不同任务和环境下的解码方法性能,发现性能受任务、对齐、模型规模和量化影响。敏感性分析表明,调整超参数可提升性能,但需在实用性与最优结果间权衡。
本研究探讨了大型语言模型(LLMs)在阈值采样时的文本记忆行为。研究发现,增加阈值大小对记忆现象的减少影响有限,模型可能表现出“软”记忆,即生成的输出与训练数据相似但不完全相同。这揭示了当前解码方法在解决文本记忆问题上的局限性。
该论文提出了一种新的零样本跨模态翻译方法,通过将多语言语音和文本编码到联合的固定大小的表示空间中,然后比较不同的解码方法以实现跨语言和模态的零样本翻译。该方法在多个文本和语音翻译任务中取得了非常好的结果,特别是在Must-C上零样本语音翻译部分显著改善了最新技术的表现。
本文介绍了PAG,一种新的优化和解码方法,通过同时解码来指导生成式检索模型中文档标识符的自回归生成。PAG在性能上超过了现有的生成式检索模型,在MS MARCO上提高了15.6%的MRR,并且查询延迟方面达到了22倍的加速。
该论文总结了群检测问题的最新进展,包括算法、存储和计算需求、解码方法的可达界限和反向界限。作者评估了理论保证的因素,并确定了现有算法的最优或接近最优的区域,同时也确定了可以改进的区域。此外,作者还概述了标准群检测问题的若干变体的结果。
完成下面两步后,将自动完成登录并继续当前操作。