本研究提出EvalMuse-40K基准,收集了40K个细粒度注释的图像-文本对,解决了自动评估文本到图像生成模型性能时小型数据集不足的问题,提升了评估效果,为未来研究提供了重要参考。
该研究推出KALE数据集,包含2.18亿对图像-文本对,旨在缩小合成字幕与网页替代文本之间的差距,提升多模态模型的性能。
CapsFusion是一种先进的框架,利用大型语言模型从图像文本对和合成字幕中巩固和完善信息。它在模型性能、样本效率、世界知识深度和可扩展性方面展示出卓越的优势,成为未来大规模多模态模型训练的有希望的候选者。
该论文提出了一种基于文本监督的语义分割方法,通过使用图像 - 文本对进行对比学习,实现了视觉分割与文本的对齐。实验结果表明,该方法优于现有的文本监督的语义分割方法。
该文介绍了SIEVE方法,用于评估图像-文本对的一致性,并在大规模和中等规模的数据集上取得了最先进的性能。该方法使用预训练的图像-文本模型生成的合成标题进行裁剪,以解决现有方法的限制。
完成下面两步后,将自动完成登录并继续当前操作。