RA-BLIP:多模态自适应检索增强自启动语言-图像预训练
发表于: 。本研究针对多模态大语言模型中知识更新的挑战,提出了一种新的检索增强框架RA-BLIP。通过引入自适应选择知识生成策略,本文实现了高效的信息提取和多模态知识的融合,显著提升了模型在开放多模态问答任务上的表现,超越了现有的检索增强模型。
本研究针对多模态大语言模型中知识更新的挑战,提出了一种新的检索增强框架RA-BLIP。通过引入自适应选择知识生成策略,本文实现了高效的信息提取和多模态知识的融合,显著提升了模型在开放多模态问答任务上的表现,超越了现有的检索增强模型。