LongWriter-V: Achieving Ultra-Long High-Fidelity Generation in Visual Language Models
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究解决了大型视觉语言模型在生成超过1000单词时的连贯性问题,提出了包含22158个示例的LongWriter-V-22k数据集和Direct Preference Optimization方法,7B参数模型在MMLongBench-Write基准测试中表现优异。
🎯
关键要点
- 本研究解决了大型视觉语言模型在生成超过1000单词时的连贯性问题。
- 提出了包含22158个示例的LongWriter-V-22k数据集。
- 引入了Direct Preference Optimization方法以提高生成质量。
- 7B参数模型在MMLongBench-Write基准测试中表现优异。
- 研究表明,现有模型缺乏长输出样本是主要限制因素。
➡️