CoDA: 以严重性感知的视觉提示调整为基础的指导式领域迁移链
原文中文,约500字,阅读约需2分钟。发表于: 。通过对场景和图像水平的指导和学习中的差异进行区分,CoDA 方法在针对逆境场景的无监督领域自适应任务中实现了 SOTA 性能,在 Foggy Driving 和 Foggy Zurich 基准测试中分别比现有方法提高了 4.6% 和 10.3% 的 mIoU。
本文研究了无监督域自适应的视觉语言模型,并提出了基于提示的分布对齐方法(PDA),实验证明PDA方法在无监督域自适应任务中取得了最先进的性能。