通过适应预训练视觉语言模型进行异常检测
原文中文,约300字,阅读约需1分钟。发表于: 。我们提出了一个统一的框架 CLIP-ADA 用于通过适应预训练 CLIP 模型进行异常检测,在这个框架中,我们通过引入可学习的提示,并通过自监督学习将其与异常模式关联起来,从而获得多类别工业图像上的统一异常检测,并且通过引入异常区域细化策略来充分利用 CLIP 的表示能力来提高定位质量,我们的框架在 MVTec-AD 和 VisA 上取得了 97.5/55.6 和 89.3/33.1...
研究人员提出了CLIP-ADA框架,用于通过适应预训练CLIP模型进行异常检测。他们通过引入可学习的提示与异常模式关联,实现了多类别工业图像上的统一异常检测。该框架在MVTec-AD和VisA上表现出令人鼓舞的性能,尤其在极小的训练数据下。