延迟瓶颈化:缓解预训练图神经网络中的遗忘

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

传统的预训练和微调流程中的遗忘现象可能对下游任务产生不利影响。提出了一种新颖的延迟瓶颈预训练(DBP)框架,通过抑制压缩操作并延迟至微调阶段来保持潜在表示与训练数据之间的互信息,以确保压缩能够由有标签的微调数据和下游任务进行引导。

🎯

关键要点

  • 传统的预训练和微调流程中存在遗忘现象。
  • 遗忘现象可能对下游任务产生不利影响。
  • 提出了一种新颖的延迟瓶颈预训练(DBP)框架。
  • DBP框架通过抑制压缩操作来保持潜在表示与训练数据之间的互信息。
  • 压缩操作被延迟至微调阶段,以确保由有标签的微调数据和下游任务进行引导。
➡️

继续阅读