研究团队提出了Sa-sft方法,通过让大语言模型在微调前自我生成复习材料,解决了灾难性遗忘问题。该方法无需外部数据,有效保持模型的通用知识,并提升特定任务的表现。实验结果表明,Sa-sft在多个场景中表现优异,验证了风格对齐的重要性。
完成下面两步后,将自动完成登录并继续当前操作。