ConPET: 大型语言模型的连续参数高效调整
原文中文,约700字,阅读约需2分钟。发表于: 。Continual Parameter-Efficient Tuning (ConPET), a generalizable paradigm for continual task adaptation of large language models (LLMs) with task-number-independent training complexity, reduces...
本文介绍了一种名为VL-PET的框架,可高效调整视觉和语言参数,通过粒度控制机制对模块化修改进行控制。实验证明其效率、效果和可转移性。VL-PET-large和轻量级PET模块在图像-文本任务上分别提升了2.92%和3.41%,在T5-base模型上提升了7.03%。该框架还可以增强现有PET技术的效果。