SFTMix:通过Mixup法提高语言模型的指令调优
原文中文,约400字,阅读约需1分钟。发表于: 。本研究解决了大型语言模型在交互驱动任务中的指令调优过程中的性能不足,特别是在需要高质量手工标注的数据集时。提出的SFTMix方法基于对样本信心水平的观察,利用Mixup正则化技术有效降低了对自信样本的过拟合,并传递监督信号以改善对不自信样本的学习。实验结果表明,SFTMix在多种指令跟随和特定医疗领域的任务上显著优于传统方法,展现了对不同语言模型和数据集的适应性及可扩展性。
研究发现,数据量、参数规模和数据构建方法影响模型能力。使用40k人工指导数据集优化模型,结果显示:某些能力对数据量和参数规模更敏感;人工数据优于合成数据;指令数据促进能力泛化。这些发现有助于提高数据构建效率和模型性能。