AMES: 面向实例级检索的不对称和内存高效相似性估计

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

本研究提出了一种基于Transformer架构的模型,用于实例级图像检索的重新排序。该模型在1KB内限制内存使用,并通过较少的描述符对数据库图像进行表示,提高性能而不增加内存消耗。在标准基准测试中,该方法优于手工制作和学习模型,并显著减少了内存占用。

🎯

关键要点

  • 本研究提出了一种基于Transformer架构的模型,用于实例级图像检索的重新排序。

  • 模型旨在将内存使用限制在每张图像1KB以内。

  • 该模型能够估计图像之间的相似性,并捕捉图像内部和图像之间的交互。

  • 通过使用较少的描述符对数据库图像进行表示,模型提高了性能而不增加内存消耗。

  • 在标准基准测试中,该方法优于手工制作和学习模型。

  • 与当前最先进的方法相比,该方法不仅性能优越,而且显著减少了内存占用。

➡️

继续阅读