本文介绍了一种基于层次记忆的预训练方法,旨在提升小型语言模型的性能。该方法通过访问大型记忆库,有效存储和提取长尾知识,同时保持常识理解。实验结果表明,使用这种记忆增强架构的小模型在性能上可与参数更多的常规模型相媲美,并在资源受限的设备上表现优异。
本研究提出了自适应检索增强生成法(ARAG),旨在提高源信息的效率和相关性。研究者创建了基准测试集RetrievalQA,包含1,271个关于新颖领域和长尾知识的问题。他们还提出了简单而有效的方法TA-ARE,用于评估语言模型中检索的必要性。
本研究发现,提供知识图谱三元组可以显著提高语言模型性能,特别是在需要长尾知识的情况下。同时,提供知识图谱和文本可以减少生成内容中的幻觉。
RAG(检索增强生成)技术通过搜索引擎提供材料,帮助模型回答问题。相关信息的提供能显著提高回答的准确性,而错误信息则可能导致错误回答。RAG的作用在于帮助模型回忆正确答案,尤其在处理长尾知识时。
本文研究了大型语言模型记忆的知识与预训练数据中信息之间的关系。结果发现,语言模型回答基于事实的问题的能力与预训练期间看到的相关问题文档数量有强相关性和因果关系。同时,更大的模型能学习更长尾的知识,但需要将模型规模增加数个数量级才能在缺乏支持数据的问题上实现具有竞争性的问答表现。最后,对相关文档数量依赖进行检索增强,能够有效捕捉长尾知识。
完成下面两步后,将自动完成登录并继续当前操作。