本研究提出了UniTok,一个统一的视觉分词器,旨在解决视觉生成与理解之间的代表性差异。UniTok能够同时编码细粒度细节和高层语义,通过多代码簿量化扩展潜在特征空间,显著提升视觉任务的表现。
本研究探讨条件潜在扩散模型(CLDMs)在图像修复中的应用,发现其在捕捉高层语义方面表现优异,但在提升图像感知质量和处理轻微降质时存在困难,传统方法更具优势。
本研究提出了显式语义嵌入与丰富(EEES)框架,以解决可见-红外行人重新识别中的高层语义感知不足问题。实验结果表明,该方法在模态不变性方面显著优于传统方法。
完成下面两步后,将自动完成登录并继续当前操作。