LongWriter-V: Achieving Ultra-Long High-Fidelity Generation in Visual Language Models

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本研究解决了大型视觉语言模型在生成超过1000单词时的连贯性问题,提出了包含22158个示例的LongWriter-V-22k数据集和Direct Preference Optimization方法,7B参数模型在MMLongBench-Write基准测试中表现优异。

🎯

关键要点

  • 本研究解决了大型视觉语言模型在生成超过1000单词时的连贯性问题。
  • 提出了包含22158个示例的LongWriter-V-22k数据集。
  • 引入了Direct Preference Optimization方法以提高生成质量。
  • 7B参数模型在MMLongBench-Write基准测试中表现优异。
  • 研究表明,现有模型缺乏长输出样本是主要限制因素。
➡️

继续阅读