CoDA: 以严重性感知的视觉提示调整为基础的指导式领域迁移链

原文约500字,阅读约需2分钟。发表于:

通过对场景和图像水平的指导和学习中的差异进行区分,CoDA 方法在针对逆境场景的无监督领域自适应任务中实现了 SOTA 性能,在 Foggy Driving 和 Foggy Zurich 基准测试中分别比现有方法提高了 4.6% 和 10.3% 的 mIoU。

本文研究了无监督域自适应的视觉语言模型,并提出了基于提示的分布对齐方法(PDA),实验证明PDA方法在无监督域自适应任务中取得了最先进的性能。

相关推荐 去reddit讨论