使用广义鲁棒损失提升单一正标签多标签分类
原文中文,约200字,阅读约需1分钟。发表于: 。本文研究了单正多标签学习(Single Positive Multi-label Learning - SPML)的问题,提出了基于期望风险最小化的广义损失框架,用于生成软伪标签,并设计了一种能够处理正负样本不平衡同时灵活协调假阳性和假阴性的新型鲁棒损失函数。实验证明,该方法能够显著提高 SPML 性能,在四个基准测试上胜过绝大多数最先进的方法。
本文提出了一种名为正例与未标注多标签分类(PU-MLC)的新方法,通过在训练时直接丢弃训练集中的负标签来减少嘈杂的标签所带来的不良影响,并通过引入自适应重平衡因子和自适应温度系数来缓解标签分布中的灾难性不平衡和概率平滑问题。实验证明 PU-MLC 方法在 MS-COCO 和 PASCAL VOC 数据集上取得了显着的改进。