聚合与适应自然语言提示以提升CLIP的下游泛化能力
原文英文,约300词,阅读约需1分钟。发表于: 。Large pretrained vision-language models like CLIP have shown promising generalization capability, but may struggle in specialized domains (e.g., satellite imagery) or fine-grained classification...
大型预训练视觉语言模型如CLIP在特定领域(如卫星图像)和细粒度分类(如汽车模型)中表现不佳。本文提出聚合与适应提示嵌入(AAPE),通过提炼自然语言提示的文本知识,改进提示学习,能够有效适应下游任务,并在少量标注数据下表现优异。AAPE在视觉语言理解和生成任务中具有竞争力,尤其适用于非典型和OOD示例,同时降低推理成本。