从文本到像素:一种针对红外和可见光图像融合的上下文感知语义协同解决方案
原文中文,约300字,阅读约需1分钟。发表于: 。本研究提出了一种基于文本引导的多模态图像融合方法,利用文本描述的高级语义结合红外和可见光图像的语义信息,为目标检测任务提供了更准确和鲁棒的结果。通过使用代码本来增强对融合动态的简明直观表达,并通过双层优化策略同时优化融合和检测问题,本研究取得了与现有方法相比更高的检测平均精度和视觉上优越的融合结果。
本研究提出了一种基于文本引导的多模态图像融合方法,通过结合红外和可见光图像的语义信息,为目标检测任务提供更准确和鲁棒的结果。研究使用代码增强融合动态的表达,并通过双层优化策略同时优化融合和检测问题,取得了与现有方法相比更高的检测平均精度和视觉上优越的融合结果。