平滑提升的样本复杂性与硬核定理的紧密性
原文中文,约300字,阅读约需1分钟。发表于: 。本研究解决了平滑提升算法的样本复杂性问题,提出了一种新颖的学习框架,显示在光滑分布上,可以以$\gamma$优势对某类问题进行弱学习,而在统一分布上需要的样本量显著增大。这一发现不仅与现有平滑提升的性能相匹配,还首次揭示出与分布无关的提升设置之间的分离,同时对复杂性理论中的Impagliazzo硬核定理提供了新的视角,表明已知证明中的电路大小损失是必要的。
本研究提出了一种新的学习框架,解决了平滑提升算法的样本复杂性问题。该框架在光滑分布上进行弱学习,而在统一分布上需要更多样本。这一发现与现有平滑提升的性能相匹配,并提供了对复杂性理论中的Impagliazzo硬核定理的新视角。