通过无监督知识蒸馏提高学得提示的零样本推理能力
原文中文,约600字,阅读约需2分钟。发表于: 。这篇论文介绍了一种名为知识蒸馏提示学习的方法,通过无监督知识蒸馏从更强大的模型中提取知识,以提高基于提示学习技术的视觉 - 语言模型在零样本领域泛化、跨数据集泛化以及基于新类的零样本泛化问题上的推广能力。
大规模视觉语言模型(VLMs)在自然视觉任务中表现出色,推动跨领域的研究者探索特定领域的 VLMs。广义领域提示学习(GDPL)框架解决了学术界对 VLMs 研究的挑战。GDPL 通过小规模的特定领域基础模型和最少的提示样本,使 VLMs 的强大识别能力从自然视觉转移到特定领域,无需大量数据或资源。实验证明了 GDPL 的有效性,并展示了在提示学习范式下实现最先进的领域识别性能的能力。