本研究提出了一种新的跨模态哈希检索框架PromptHash,旨在解决现有方法在语义保留和信息冗余方面的不足。通过引入亲和提示学习机制和自适应融合架构,该框架显著提升了图像与文本之间的检索性能,尤其在NUS-WIDE数据集上表现突出。
研究探讨半监督图表示学习中语义保留与数据扰动的平衡,提出保留解释的增强(EPA)方法,通过图解释技术生成增强图,确保语义保留和变异性。实验表明,EPA-GRL在多个数据集上表现优于现有方法。
本文介绍了DH-VTON虚拟试穿模型,通过混合注意力学习和深度服装语义保留模块,提升了服装细节和人像生成质量,优于现有方法。
完成下面两步后,将自动完成登录并继续当前操作。