本研究提出了一种新方法,通过语言描述控制对象中心表示学习,解决了现有模型可控性不足的问题。该方法能够在复杂场景中提取特定对象的表示,并在视觉语言任务中表现优异。
自ChatGPT发布以来,自然语言处理领域迅速发展,但大规模语言模型在不同语言和文化中的表现差异显著。本研究引入M5基准测试,评估41种语言下的视觉语言任务,强调高低资源语言的性能差异。
本研究提出了CMAL框架,通过锚点检测和跨模态学习增强视觉与文本的互动。新的自监督任务使CMAL在多个视觉语言任务中表现出色,尤其在SNLI-VE和REC数据集上取得了最佳成绩。
最近的多模态大型语言模型 (MLLMs) 在感知图像以及遵循开放性指令方面表现出令人印象深刻的能力。研究者提出了Muffin框架和UniMM-Chat数据集,Muffin在广泛的视觉语言任务中实现了最先进的性能。
本研究通过引入场景图表达模块(SGE)解决了大规模视觉语言模型中由于图像分块导致的视觉理解能力不足的问题。该方法能够提取和结构化图像中的复杂语义信息,显著提升模型在视觉语言任务中的表现,对细致语义细节的保留和提升视觉理解具有潜在影响。
最近的多模态大型语言模型 (MLLMs) 在感知图像以及遵循开放性指令方面表现出令人印象深刻的能力。研究者提出了 Muffin 框架和 UniMM-Chat 数据集,Muffin 在广泛的视觉语言任务中实现了最先进的性能。
该研究通过扩展数据集和模型架构,进一步探索了具有对比语言 - 图像预训练(CLIP)的视觉语言任务的性能。提出了RWKV-CLIP,通过引入多样化的描述生成框架,在多个下游任务中实现了最先进的性能。
GIT是一个生成式图像到文本的转换器,用于视觉语言任务。通过简化的体系结构和扩大的预训练数据和模型规模,GIT在12个基准测试中表现最佳。
本文介绍了一种名为Dynamic Visual Prompting(DVP)的新型转移学习方法,将预训练语言模型(PLMs)与不同的视觉语言任务相结合。DVP在效率和性能方面都具有优势,并且能够很好地适应预训练语言模型与VL任务相结合的需求。
该文介绍了一种名为“分解提示调优(DePT)”的新方法,通过将软提示分解为较短的软提示和一对低秩矩阵并使用两个不同的学习率进行优化,可以在某些情景下优于最先进的参数高效微调方法。作者在23个自然语言处理和视觉语言任务上进行了广泛实验,并发现DePT在模型规模增大时更加高效,在少样本学习设置和各种模型架构和规模中也表现出适应性。
完成下面两步后,将自动完成登录并继续当前操作。