本研究提出HICD方法,旨在改善大型语言模型中的幻觉现象。通过选择关键注意力头并分散其注意力,HICD显著提升了上下文完整性和知识回忆的准确性,为降低幻觉提供了有效策略。
该研究分析了KV缓存压缩对大型语言模型(LLM)性能的影响,测试了不同压缩方法在推理、知识回忆和指令执行方面的效果,并探讨了内存效率与模型能力之间的权衡。
Allen人工智能研究所推出了OLMo 2系列开源语言模型,参数为70亿和130亿。该模型经过5万亿个标记训练,采用分阶段训练和多样化数据集,显著提升了训练稳定性和模型鲁棒性。在知识回忆、推理和语言能力方面,OLMo 2超越了前代模型,成为开源AI的新标杆。
完成下面两步后,将自动完成登录并继续当前操作。