Blink是一个新基准,用于评估多模式语言模型的视觉感知能力。通过14个计算机视觉任务生成3,807个多项选择题,结果显示人类准确率为95.70%,而GPT-4V和Gemini的准确率仅为51.26%和45.72%。这表明当前多模式LLMs在视觉感知方面仍需改进。
Blink是一个新的多模式语言模型(LLMs)基准,通过对14个计算机视觉任务进行改组,生成了3807个多项选择题。结果显示,现有的多模式LLMs在核心视觉感知能力上仍有挑战,最佳模型的准确率仅为51.26%和45.72%。专家级计算机视觉模型在解决这些问题方面表现更好。Blink将激发社区努力,帮助多模式LLMs赶上人类水平的视觉感知。
研究展示了CriticGPT多模式语言模型,可理解机器人操纵任务中的轨迹视频并提供分析和偏好反馈。实验评估表明该模型具有有效的泛化能力,在Meta-World任务上表现出优越性能。
完成下面两步后,将自动完成登录并继续当前操作。