使大型视觉语言模型成为优秀的少量学习耠
原文中文,约400字,阅读约需1分钟。发表于: 。本研究解决了少量分类任务中大型视觉语言模型(LVLMs)在提取有用信息方面的不足,尤其是在学习特定响应格式和位置偏差问题。通过采用元学习策略和丰富的元任务构建,提升了模型提取少量支持数据的信息能力,实验结果表明该方法在多个数据集上表现优异,具有重要的实际应用潜力。
本研究发现少样本学习结果对训练样本选择具有显著依赖性。研究提出了两种创新的选择方法REPRE和Montecarlo,用于增强现有的少样本提示学习方法。结果表明,这些方法在少样本训练场景中优于随机选择和基于主动学习的策略。研究为少样本训练方法提供了灵活的增强。