💡
原文英文,约200词,阅读约需1分钟。
📝
内容提要
多模态视觉语言模型(VLMs)在图表理解基准上取得了一定进展,但未能全面反映其视觉推理能力。我们提出了EncQA基准,涵盖视觉编码和分析任务,提供2076对合成问答,评估了9个VLM的表现,发现不同编码和任务间的性能差异显著,且模型规模的增大并未显著提升许多任务的表现。
🎯
关键要点
- 多模态视觉语言模型(VLMs)在图表理解基准上取得进展,但未能全面反映视觉推理能力。
- 提出了EncQA基准,涵盖视觉编码和分析任务,提供2076对合成问答。
- EncQA平衡覆盖六种视觉编码通道和八种任务。
- 评估了9个最先进的VLM,发现同一任务内不同编码的性能差异显著。
- 模型规模的增大并未显著提升许多任务的表现。
- 推进图表理解需要针对特定视觉推理差距的策略,而非仅仅扩大模型或数据集规模。
➡️