本研究提出了一种样本加权方案,以解决微调预训练模型时的“灾难性遗忘”问题,特别是在缺乏原始数据的情况下。该方法通过强调简单样本来提升下游任务的性能,实验证明在语言和视觉任务中效果显著。
完成下面两步后,将自动完成登录并继续当前操作。