基于视觉基础模型和跨注意力机制的鲁棒场景变化检测
原文中文,约500字,阅读约需1分钟。发表于: 。本研究解决了场景变化检测中的关键挑战,如光照变化、季节变化和视角差异。我们提出通过“冻结”基础模型的主干以保留特征的通用性,并采用“全图”跨注意力机制来有效学习图像对之间的对应关系。实验结果表明,该方法在几何变化场景中的F1得分显著提高,展现了优于现有方法的鲁棒性和更好的泛化能力。
由于多时相图像数据获取和标注成本高,现有变化检测数据集不足。为此,提出了ChangeNet数据集,包含31000对多时相图像,覆盖100个城市的复杂场景,并引入“非对称变化检测”任务。ChangeNet支持二值化和语义变化检测,提供六个像素级注释类别,超越现有数据集。基准测试显示其挑战性和重要性,促进变化检测算法的实际应用。