Multi-Image Enhanced Direct Preference Optimization for Large Vision-Language Models

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本研究提出了一种多图像增强直接偏好优化(MIA-DPO)方法,旨在解决多图像任务中的数据稀缺和高标注成本问题。该方法通过构建选择/拒绝对,降低了标注成本,并在基准测试中提升了3.0%-4.3%的性能,同时改善了复杂场景的表现。

🎯

关键要点

  • 本研究提出了一种多图像增强直接偏好优化(MIA-DPO)方法。
  • 该方法旨在解决多图像任务中的数据稀缺和高标注成本问题。
  • 通过构建选择/拒绝对,MIA-DPO降低了标注成本。
  • 在基准测试中,该方法提升了3.0%-4.3%的性能。
  • MIA-DPO在复杂场景中的表现得到了显著改善。
  • 该方法保持了对单图像理解能力的同时,提升了多图像任务的效果。
➡️

继续阅读