本研究提出了一种名为GradMix的新数据增强方法,旨在解决持续学习中保持旧知识与获取新知识的挑战。GradMix通过基于梯度的选择性混合样本,显著减少了分类增量学习中的灾难性遗忘,实验结果表明其在多种数据集上的准确性优于传统方法。
研究发现,数据量、参数规模和数据构建方法影响模型能力。使用40k人工指导数据集优化模型,结果显示:某些能力对数据量和参数规模更敏感;人工数据优于合成数据;指令数据促进能力泛化。这些发现有助于提高数据构建效率和模型性能。
本研究提出了一种新预处理策略ProxiMix,结合mixup方法和偏见缓解算法,改善数据增强的公平性。实验表明,ProxiMix在预测和公平性补救方面表现优异。
本文介绍了CroMo-Mixup,一种用于解决连续自我监督学习中任务混淆问题的特征混合框架。通过混合样本、学习样本嵌入的相似性以及原始图像,提高负样本多样性、促进跨任务类对比学习和旧知识检索。实验证明该框架在任务标识预测和所有任务的平均线性准确性上有效,并与四种先进的自监督学习目标兼容。
DivideMix是一种新型深度学习框架,利用半监督学习技术将训练数据分成标记和未标记集合,并使用MixMatch策略进行训练。实验证明DivideMix比现有方法有显著改进。
本文提出了一种新的基于Transformer的MIL方法,探索形态和空间信息,对三个计算病理学问题进行了测试,结果表明该方法具有更好的性能和更快的收敛速度,测试AUC可以达到93.09%,在TCGA-NSCLC和TCGA-RCC数据集上,癌症亚型分类的AUC分别可以达到96.03%和98.82%。
通过增强传统的SMOTE方法并与Mixup结合,提出了一种统一的深度学习数据增强框架。实验结果表明该方法在深度不平衡分类任务上具有最先进的性能,并且在极度不平衡数据上也达到了优异的效果。
R-Mix是一种新方法,将随机性和显著性结合起来,实现了速度、简单性和准确性的平衡。该方法训练了一个基于分类器性能的混合策略决策代理,减少了对人类设计目标和超参数调整的依赖,并展示了优越的泛化、弱监督目标定位、校准和对抗性攻击鲁棒性。
本文介绍了一种新型的混合增强方法,称为结构混合(S-Mixup),用于节点分类。该方法考虑了结构信息,在混合节点时利用图神经网络(GNN)分类器为无标签节点获取伪标签及其预测置信度,并利用从GNN训练中获得的边梯度提出了一种基于梯度的边选择策略。实验证明S-Mixup在节点分类任务中提高了GNN的鲁棒性和泛化性能,尤其是在异质情况下。
本文介绍了数据增强方法CutMix和Mixup的实践案例,提供了离线和在线实现代码。这两种方法能够很好地代表了目前数据增强的一些方法,掌握了这两种方法,也就理解了另外的cutout以及mosaic增强方法。
完成下面两步后,将自动完成登录并继续当前操作。