本研究探讨了平滑提升算法的样本复杂性,提出了一种新学习框架,表明在光滑分布上可以实现弱学习,而在统一分布上样本需求显著增加。这一发现揭示了提升设置的分离,并为复杂性理论中的Impagliazzo硬核定理提供了新视角。
完成下面两步后,将自动完成登录并继续当前操作。