本研究提出链式推理百科全书,以解决大型语言模型在推理策略理解方面的不足,通过自动提取标准和语义嵌入分析来提升模型性能。
本研究提出了T2I-R1模型,解决了文本到图像生成中的推理策略不足问题。通过双层思维链推理和强化学习,该模型在T2I-CompBench和WISE基准上分别提升了13%和19%的表现,超越了现有最先进模型FLUX。
本研究提出了一种新颖的测试时间扩展(TTS)方法,以提高视频生成质量。通过增加推理时间的计算资源和采用有效的推理策略(如"树帧"方法),显著提升了基于文本提示的视频生成效果,展示了TTS在视频生成中的潜力。
本研究提出了TATA框架,以解决大型语言模型在数学推理中调整策略的不足。该框架使模型能够根据自身能力自适应调整推理策略,并优化训练数据选择。实验结果表明,TATA在数学推理基准测试中表现优异,显著提升了推理效率。
本研究提出电子电路模型(ECM),旨在统一解释大语言模型中的上下文学习和思维链现象。ECM通过模拟二者的相互作用,提升模型性能,优化推理策略,超越80%的顶尖人类选手,展现出显著潜力。
北交大等高校发布多语言大模型综述,回顾了多语言能力的进展与挑战,探讨了训练方法、推理策略及安全性等问题,并强调未来研究方向以提升多语言能力。
本研究探讨大型语言模型的归纳推理机制,发现模型的先验影响大于示例展示。评估三种推理策略在五个任务中的效果,结果显示去除示例时假设质量损失较小,突显了模型先验的潜力。
本研究提出了基于锚点的LLM (AnLLM) 模型,利用基于锚点的自注意力网络 (AnSAN) 和推理策略,将序列信息压缩到锚点令牌中,减少键/值缓存并提高推理效率。实验证明,AnLLM 在保持可比精度的同时缩减了99%的键/值缓存,并实现了3.5倍的更快推理速度。AnLLM 在计算效率和资源利用方面具有显著改善,展示了锚点式注意力方法在实时推理的潜力。
SeaKR是一种自我感知知识检索模型,利用大规模语言模型的内部状态提取自我感知的不确定性,激活检索。SeaKR根据自我感知不确定性重新排序已检索的知识片段,以减少不确定性。SeaKR还利用自我感知不确定性选择不同的推理策略。实验证明,SeaKR优于自适应RAG方法。
本研究引入了基于锚点的LLM模型,利用创新的自注意力网络和推理策略,将序列信息压缩到锚点令牌中,提高推理效率。AnLLM在保持可比精度的同时缩减了99%的键/值缓存,并实现了3.5倍的更快推理速度。AnLLM在计算效率和资源利用方面具有显著改善,展示了锚点式注意力方法在实时推理中的潜力。
本研究提出了基于锚点的LLM模型,利用创新的自注意力网络和推理策略,将序列信息压缩到锚点令牌中,减少键/值缓存并提高推理效率。实验证明,AnLLM在保持可比精度的同时缩减了99%的键/值缓存,并实现了3.5倍的更快推理速度。AnLLM在计算效率和资源利用方面具有显著改善,展示了锚点式注意力方法在实时推理中的潜力。
本文提出了一种新的推理策略 - Reparameterized Variational Rejection Sampling (RVRS),通过引入低方差的重新参数化梯度估计器,将 VRS 变为适用于具有连续潜在变量的模型。RVRS 在计算成本和推理准确性之间提供了一个折衷方案,特别适用于具有局部潜在变量的黑盒推理。
完成下面两步后,将自动完成登录并继续当前操作。