用智能 Mixture of Prompts 消除 LLM 任务适应的异质性

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

该文介绍了一种名为MPT的方法,通过从多个特定于任务的源提示中提取知识来学习一个单一可传输的提示,并将其适应每个下游目标任务。实验表明,该方法在某些情况下优于最先进的方法,尽管只有0.035%的特定于任务的参数被调整。

🎯

关键要点

  • 提出了一种名为多任务提示调整(MPT)的方法。
  • MPT方法通过从多个特定于任务的源提示中提取知识来学习单一可传输的提示。
  • 该方法还学习共享提示的乘性低秩更新,以适应每个下游目标任务。
  • 在23个自然语言处理数据集上进行的实验表明,该方法在某些情况下优于最先进的方法。
  • 尽管只有0.035%的特定于任务的参数被调整,该方法仍表现出色。
➡️

继续阅读