关于层标准化调整在视觉 Transformer 连续学习中的有效性

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本文提出了一种仅利用0.03%参数的LN-tuning方法,通过调整Layer Normalization模块的增益和偏置项,实现对PLMs的参数高效调整。研究发现将LN-tuning与其他方法相结合可以提升性能,但同时调整FFN和LayerNorm会导致性能下降。该方法实现了SOTA的性能表现。

🎯

关键要点

  • 提出了一种仅利用0.03%参数的LN-tuning方法。
  • 通过调整Layer Normalization模块的增益和偏置项,实现对PLMs的参数高效调整。
  • 研究了将LN-tuning与其他方法相结合的统一框架。
  • 在MHA和LayerNorm同时调整的情况下可以获得性能提升。
  • 在FFN和LayerNorm同时调整的情况下将导致性能下降。
  • 该方法实现了SOTA的性能表现。
➡️

继续阅读