LatteCLIP:通过LMM合成文本进行无监督CLIP微调

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本研究提出LatteCLIP,一种无监督方法,通过生成文本描述来微调大型视觉语言模型,无需人工标注。在10个领域数据集上,LatteCLIP优于现有无监督方法。

🎯

关键要点

  • 本研究提出LatteCLIP,一种无监督方法。

  • LatteCLIP通过生成文本描述来微调大型视觉语言模型,无需人工标注。

  • 该方法旨在解决大型视觉语言预训练模型在特定领域中的性能不足问题。

  • 实验结果显示,LatteCLIP在10个领域特定数据集上的表现优于现有无监督方法。

➡️

继续阅读