本研究提出了一种新方法,通过谱数据压缩加速UMAP,解决了其在大规模数据集上的效率问题。该方法在减少数据集大小的同时保持流形结构,实验结果表明嵌入质量未受影响。
本文介绍了一种新的知识蒸馏技术,用于降低持续学习中的遗忘。该技术利用神经网络的潜在/输出空间的流形结构,并利用线性子空间来保持神经网络的知识。实验证明,该方法在多个具有挑战性的数据集上优于其他连续学习方法。
完成下面两步后,将自动完成登录并继续当前操作。