阿里通义开源「推理+搜索」预训练新框架:小模型媲美大模型,多个开放域问答数据集表现显著提升
💡
原文中文,约3200字,阅读约需8分钟。
📝
内容提要
阿里通义实验室推出MaskSearch框架,提升大模型推理与搜索能力。小模型表现接近大模型,兼容监督微调和强化学习,显著提升开放域问答性能。通过检索增强型掩码预测任务,模型有效学习信息处理与搜索引擎使用,适应多领域任务。
🎯
关键要点
- 阿里通义实验室推出MaskSearch框架,提升大模型推理与搜索能力。
- 小模型表现接近大模型,兼容监督微调和强化学习。
- MaskSearch通过检索增强型掩码预测任务有效学习信息处理与搜索引擎使用。
- MaskSearch的预训练任务为检索增强型掩码预测(RAMP),模型需借助外部知识库预测被掩盖的文本片段。
- MaskSearch在多个开放域问答数据集上显著提升性能,尤其在领域外数据集上表现突出。
- 监督微调和强化学习两种训练方式与MaskSearch框架兼容,RL在RAMP任务上展现更高性能。
- 课程学习策略通过难度分级训练样本,帮助模型逐步提升推理能力。
- 掩码策略和奖励函数对模型性能有显著影响,需与模型能力匹配以获得最佳效果。
- MaskSearch致力于提升大型语言模型的智能体推理与搜索能力,实现外部知识的深度整合。
➡️