本文提出了一种新训练方法,显著提升了视觉语言模型在语言理解方面的能力,超越了CLIP等模型的图像文本判别和组合能力。
该研究探索了自我监督视觉语言表示法对不同长度和数量的图像文本的鲁棒性。研究使用大规模多模态数据集,并提出了一种基线方法,其在零样本图像集检索表现上超过最先进方法10%。
完成下面两步后,将自动完成登录并继续当前操作。