零样本场景变化检测
原文中文,约400字,阅读约需1分钟。发表于: 。我们提出了一种新颖的无需训练的场景变化检测方法,该方法利用跟踪模型进行连续帧变化检测,通过识别共同物体和检测新的或缺失的物体。我们还通过引入自适应内容阈值和样式桥接层解决了输入图像之间的内容差异和样式差异问题,并将该方法扩展到视频以提高场景变化检测性能。通过各种实验证明,我们的方法在不同领域上表现出一致的性能,证明了我们方法的竞争力。
介绍了一种名为AnyChange的新变化检测模型,通过训练无关的自适应方法,在零样本预测和泛化的情况下支持不同类型和数据分布的变化检测。通过揭示和利用图像内部及图像间的语义相似性,实现了零样本变化检测能力。同时,提出了一种点查询机制,使得具备了零样本目标中心变化检测的能力。实验证明AnyChange在零样本变化检测方面有效,并在SECOND基准测试中取得了令人瞩目的成绩。