MoDA:利用视频中的动作先验提升无监督语义分割领域自适应

原文约300字,阅读约需1分钟。发表于:

本文提出了一种运用自监督学习和运动导向的领域自适应语义分割框架(MoDA),以解决目标领域中缺乏标注的语义分割问题。MoDA 通过利用对象运动的自监督学习,在前景和背景类别上采用不同的策略来处理领域间的差异,通过前景对象发现和语义挖掘以及背景对抗训练来提高准确性。实验结果表明,MoDA 在领域自适应图像分割和领域自适应视频分割方面优于现有方法,并可与现有的先进方法相结合以进一步改善性能。

本文提出了一种自适应语义分割框架MoDA,利用自监督学习和运动导向处理领域间差异,提高准确性。实验结果表明,MoDA在领域自适应图像和视频分割方面优于现有方法,并可与先进方法相结合以进一步改善性能。

相关推荐 去reddit讨论