研究提出了一种新算法,通过多任务训练获得元初始化,选择对目标任务有帮助的辅助任务。该方法利用函数值和梯度近似子集进行微调损失估计,无需重复训练。实验证明,CPU上估计速度提高30倍,误差仅1%,下游评估性能提升最多3.8%。
研究提出了一种新算法,通过多任务训练获得元初始化,优化语言模型的微调。该方法利用函数值和梯度近似子集进行性能估计,无需重复训练。实验证明,CPU上估计速度提高30倍,误差仅1%,下游评估性能提升最多3.8%。
完成下面两步后,将自动完成登录并继续当前操作。