本文提出了一种新颖的自监督迁移学习方法——分布匹配(DM),旨在提升目标分类任务的性能。DM通过保持数据增强的不变性,推动表示分布向预定义参考分布,从而在多个数据集上实现优异的分类效果。研究表明,DM在样本量有限的情况下仍能表现出色。
该研究提出了一种新颖的生成数据集蒸馏方法,通过自我知识蒸馏提升预测准确性,并在logits标准化后进行分布匹配,实验结果优于现有方法。
本研究探讨自监督表示学习中如何实现特定分布匹配。通过在增强深度信息时加入独立噪声,自动将学习到的表示与先验分布匹配。结果表明,可以学习均匀、正态等分布的表示,并在下游任务表现与分布匹配质量之间找到平衡。
本研究提出了一种新的部分分布匹配方法(PDM),通过部分Wasserstein对抗网络(PWAN)实现高效近似,解决了分布匹配问题。实验表明该方法在点集配准和部分领域适应任务中表现出色。
使用分布匹配和最优传输的伪标注方法解决了长尾分布和标签噪声的问题,提供平衡准确的训练样本集,为标签噪声的长尾分类提供性能提升。
完成下面两步后,将自动完成登录并继续当前操作。