微调掩盖而非定制模型的基础能力
💡
原文英文,约900词,阅读约需4分钟。
📝
内容提要
通过对控制性合成环境中的解释性工具进行分析,研究发现微调很少改变模型的基础能力,而是在现有能力的基础上学习了一个“包装器”来执行新任务。进一步微调可以“唤醒”隐藏的能力,对微调模型的安全性和鲁棒性有重要影响。研究者还提出了更多关于微调的机制分析和潜在陷阱的思考。
🎯
关键要点
- 微调大型预训练模型已成为开发机器学习系统的标准方法。
- 研究发现微调很少改变模型的基础能力,而是学习了一个“包装器”来执行新任务。
- 这个包装器创造了能力被修改的错觉,实际上模型的基础能力保持不变。
- 进一步的微调可以“唤醒”隐藏的能力,表明这些能力在初始微调过程中并未真正丧失。
- 研究者使用可解释性工具进行分析,提供了对微调影响的独特见解。
- 研究的局限性在于主要集中在合成任务和数据集,缺乏对真实世界任务的验证。
- 研究强调了对微调机制的更细致分析的必要性,以确保机器学习模型的安全性和鲁棒性。
- 研究结果挑战了微调会产生全新能力的常见假设,建议模型倾向于重用和调节其已有知识。
➡️