Multi-Image Enhanced Direct Preference Optimization for Large Vision-Language Models
BriefGPT - AI 论文速递 · 2024-10-23T00:00:00Z
本研究提出了一种多图像增强直接偏好优化(MIA-DPO)方法,旨在解决多图像任务中的数据稀缺和高标注成本问题。该方法通过构建选择/拒绝对,降低了标注成本,并在基准测试中提升了3.0%-4.3%的性能,同时改善了复杂场景的表现。
原文英文,约100词,阅读约需1分钟。