多视角关注的图像文本匹配

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

我们提出了一种Uncertainty-Aware Multi-View Visual Semantic Embedding (UAMVSE)框架,通过多种视图-文本匹配将整体图像-文本匹配分解,引入了一种不确定性感知损失函数(UALoss)来自适应地建模每个视图-文本对应关系的不确定性,增强了模型理解图像和文本的对应关系的能力。实验结果表明,UAMVSE优于最先进的模型。

🎯

关键要点

  • 提出了一种不确定性感知多视图视觉语义嵌入框架(UAMVSE)。
  • 通过多种视图-文本匹配将整体图像-文本匹配分解。
  • 引入不确定性感知损失函数(UALoss)以自适应建模视图-文本对应关系的不确定性。
  • 不同的权重指导模型关注不同的语义信息。
  • 增强了模型理解图像和文本对应关系的能力。
  • 设计了一种优化的图像-文本匹配策略,通过标准化相似度矩阵提高模型性能。
  • 在Flicker30k和MS-COCO数据集上的实验结果表明,UAMVSE优于最先进的模型。
➡️

继续阅读