本研究提出了一种新的样本复杂度,显著降低了在近似差分隐私下学习高斯混合模型的样本需求,尤其在高维情况下。
本研究提出了一种新的样本复杂度,显著降低了在近似差分隐私下学习高斯混合模型的样本需求。
该研究特别关注高维情况下的样本需求。
研究表明,当维度远大于混合成分数量时,样本需求量是最优的。
首次证明了一维高斯混合的私有学习样本复杂度是线性的。
这一发现可能显著提高在隐私保护环境下进行数据分析的效率。
完成下面两步后,将自动完成登录并继续当前操作。