该研究提出了一种新方法,通过学习重建函数优化样本压缩,解决了传统方法中重建函数固定的问题。研究开发了新的样本压缩泛化界限,并在元学习框架下引入超网络架构,提供严格泛化保证的预测器。初步实验结果显示效果良好。
本文研究了样本压缩与统计学习之间的关系,探究了学习能力与可压缩性的等价性,以及在多类别分类问题中的应用。作者证明了在零/一损失分类下,可学习性等价于对数样本大小的压缩,并且一致收敛意味着恒定大小的压缩。此外,作者还探究了在Vapnik的一般学习设置下压缩能力与学习能力的等价性。
完成下面两步后,将自动完成登录并继续当前操作。