Multi-Image Enhanced Direct Preference Optimization for Large Vision-Language Models
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究提出了一种多图像增强直接偏好优化(MIA-DPO)方法,旨在解决多图像任务中的数据稀缺和高标注成本问题。该方法通过构建选择/拒绝对,降低了标注成本,并在基准测试中提升了3.0%-4.3%的性能,同时改善了复杂场景的表现。
🎯
关键要点
- 本研究提出了一种多图像增强直接偏好优化(MIA-DPO)方法。
- 该方法旨在解决多图像任务中的数据稀缺和高标注成本问题。
- 通过构建选择/拒绝对,MIA-DPO降低了标注成本。
- 在基准测试中,该方法提升了3.0%-4.3%的性能。
- MIA-DPO在复杂场景中的表现得到了显著改善。
- 该方法保持了对单图像理解能力的同时,提升了多图像任务的效果。
➡️