本研究提出了一种轮廓细化门框架,解决了红外图像超分辨率技术中的模态差异问题。该方法能够恢复红外特征,并保持光谱分布的保真度,实验结果表明其在视觉和感知任务中优于现有模型。
本研究提出了一种新型校正方法,解决未冷却红外图像的非均匀性问题。该方法借鉴视频去暗淡算法,适用于静态图像,实时处理且每像素仅需两次操作,具有实际应用潜力。
本研究提出TeX-NeRF方法,通过引入材料发射率和伪TeX视觉预处理红外图像,解决NeRF在低光环境下的3D场景重建问题,实现高质量重建和准确温度估计。实验表明,该方法的效果与高质量RGB图像相当,适用范围更广。
本研究提出了一种双分支特征分解融合网络(DAF-Net)及其领域自适应方法,解决了红外和可见光图像融合中的关键特征保留问题。DAF-Net通过引入多核最大均值差异和设计混合核函数,有效对齐了红外和可见光图像的潜在特征空间,提升了融合图像的质量和性能。
本文提出了一种简单而有效的可见光和红外图像融合框架SimpleFusion,通过Retinex理论将可见光和红外图像分解成反射和光照部分,并进行相应元素的融合。采用两个简单的卷积神经网络设计,能够高效地执行图像分解和融合,实验证明该方法优于之前最先进的方法。
CSK-Net是一种多模态融合方法,利用对比学习为光学和红外图像的语义分割提供了基于光谱知识蒸馏的融合技术。该方法在多模态任务上超过现有模型,仅利用红外数据进行推断就能提高性能,且没有额外计算成本。
AMFusionNet是一种创新的红外和可见图像融合方法,通过多个卷积核和注意力机制,生成丰富信息的图像。实验证明,AMFusionNet在质量和数量上优于现有算法,并在公开可用数据集上显示了显著的改进。
本文介绍了一种新的深度学习架构,用于红外和可见图像融合问题。该架构通过编码网络和融合层来提取和融合图像特征,并使用解码器重建融合图像。该方法在客观和主观评估方面取得了最先进的性能。
本文提出了一种多模态图像融合框架,解决可见光图像与红外图像焦点区域不同的融合问题。通过分解图像为结构和纹理成分,并使用多尺度操作器对纹理成分进行融合,同时考虑能量信息的分布,实现了场景亮度的捕捉和对比度的维持。实验结果表明,该算法优于现有方法。
本文提出了一种多模态图像融合框架,解决了可见光图像与红外图像焦点区域不同的融合问题。通过分解图像为结构和纹理成分,并使用多尺度操作器对纹理成分进行融合,同时考虑能量信息的分布,实现了场景亮度的捕捉和对比度的维持。实验结果表明,该算法优于现有方法。
该研究介绍了自主学习在红外图像领域的应用,提供了一个大规模红外预训练数据集,并通过对象敏感的随机 RoI 裁剪方法和面向纹理缺失的图像预处理方法解决了传统方法在红外图像上的挑战。实验证明,该方法优于其他基线模型,仅使用了 1.23M 可预训练参数。
该研究提出了一种多域特征关系学习网络(MD-FRN),通过学习交互式跨域特征关系,提高了稳健性,并发布了一个包含1300对可见光和红外图像的数据集VL-CMIM。
该研究发布了一个包含1300对可见光和红外图像的数据集VL-CMIM,覆盖了不同场景的超过200万个块对。同时,提出了一种多域特征关系学习网络(MD-FRN),通过学习交互式跨域特征关系,提高了稳健性。
该文介绍了一种创新的红外和可见图像融合方法AMFusionNet,通过使用多个卷积核和注意力机制,吸收红外图像的热力细节和可见源的纹理特征,生成了丰富信息的图像。实验证明,该方法在质量和数量上优于现有算法,并在公开可用数据集上显示了显著的改进。
本文介绍了一种新的深度学习架构,用于红外和可见图像融合问题。该架构包括编码网络、融合层和稠密块,并设计了两个融合策略。与现有的融合方法相比,该方法在客观和主观评估方面均取得了最先进的性能。
完成下面两步后,将自动完成登录并继续当前操作。