本文提出了一种理论框架,将任务相似性的复杂形式化与在线凸优化和序列预测算法融合,以提供更精确的转移风险界限。该方法适用于任务环境动态变化或任务共享几何结构的情况下,能够导出高效算法的平均情况后悔界限。通过改善几种流行的元学习算法,该方法在少样本学习和联邦学习问题上表现出更好的性能。
本文提出了一种理论框架,将任务相似性的复杂形式化与在线凸优化和序列预测算法融合。该方法能够自适应地学习任务相似性,提供更精确的转移风险界限,并在任务环境动态变化或任务共享几何结构的情况下导出高效算法的平均情况后悔界限。通过修改几种流行的元学习算法,改善了它们在少样本学习和联邦学习问题上的性能。
完成下面两步后,将自动完成登录并继续当前操作。