BLIP-2是一种通用且高效的视觉与语言预训练策略,通过两阶段预训练的轻量Querying Transformer来弥合模态差距。BLIP-2在多个视觉语言任务上取得了SOTA结果,包括图像命名、视觉问答和图像文本检索。模型结构包括图像转换器和文本Transformer。
完成下面两步后,将自动完成登录并继续当前操作。