本研究探讨了检索增强生成(RAG)系统在上下文大小和语言模型选择上的问题,发现最佳问答表现依赖于最多15个片段,不同领域模型表现差异显著,尤其在生物医学和百科全书领域。研究为RAG系统的改进提供了指导。
研究发现大语言模型(LLMs)存在记忆化现象,模型大小、连续大小和上下文大小之间存在记忆化关系。通过实验证实了句子的嵌入分布和解码动态,揭示了记忆化和非记忆化句子的边界效应。通过训练Transformer模型预测记忆化,证明了通过上下文预测记忆化的可行性。
完成下面两步后,将自动完成登录并继续当前操作。