本研究介绍了一种名为KATE的新型优化算法,它是AdaGrad算法的一个尺度不变适应版本。通过证明其在广义线性模型中具有尺度不变性,并利用数值实验比较KATE与Adam和AdaGrad算法在不同问题上的性能,结果表明KATE在各种情境中始终优于AdaGrad并与Adam的性能相当甚至超越。
完成下面两步后,将自动完成登录并继续当前操作。