InstructRetro: 检索增强预训练后的指令调整
原文中文,约500字,阅读约需2分钟。发表于: 。通过检索进行预先训练的大型语言模型在困惑度和事实准确性方面表现更好,但现有预先训练的检索增强语言模型的规模仍然受限,因此限制了指导调整和零样本泛化的效果。我们提出了 Retro 48B,这是在指导调整之前预先训练的最大语言模型,通过从 1.2 万亿令牌中检索继续对 43B GPT 模型进行额外的 1000 亿令牌的预训练。Retro 48B 在困惑度方面在很大程度上优于原始的 43B...
该文介绍了一种名为Retro 48B的预先训练语言模型,通过从1.2万亿令牌中检索继续对43B GPT模型进行额外的1000亿令牌的预训练。Retro 48B在困惑度方面表现更好,InstructRetro在零样本问答任务上明显优于指导调整的GPT。