DePT: 解耦式提示调节

BriefGPT - AI 论文速递 BriefGPT - AI 论文速递 ·

DePT是一种新的参数高效微调方法,通过将软提示分解为较短的软提示和一对低秩矩阵并使用两个不同的学习率进行优化。在23个自然语言处理和视觉语言任务上的实验表明,DePT在某些情况下优于最先进的参数高效微调方法,包括完全微调基线。此外,DePT在模型规模增大时更加高效,并且适用于少样本学习设置和各种模型架构和规模。

原文约300字/词,阅读约需1分钟。
阅读原文