本研究提出了一种新的少样本类增量学习(FSCIL)方法,旨在解决深度学习在动态环境中的适应性不足和对大量训练数据的依赖。该方法通过为每个学习阶段开发独立模型,有效防止灾难性遗忘,并在CIFAR-100和mini-ImageNet数据集上取得了优异表现。
本研究提出了一种自注意时空校准(SASTC)方法,旨在提高脉冲神经网络(SNN)的准确性。该方法通过自注意机制实现了人工神经网络(ANN)与SNN之间的语义对齐,显著提升了SNN在CIFAR-10和CIFAR-100数据集上的表现,推动了SNN的应用潜力。
本研究提出了一种基于平面动物神经网络的新方法,以提高人工神经网络在图像分类中的预测准确性。结果表明,该方法在CIFAR-10和CIFAR-100数据集上优于传统神经网络,展示了生物启发架构的潜力。
本研究提出了一种典型性意识学习(TAL)方法,以解决深度神经网络在故障检测中的过于自信问题。TAL通过动态调整样本的典型性指标,降低不典型样本的过拟合,从而显著提升了CIFAR100数据集上的故障检测性能,AURC提升超过5%。
知识蒸馏通过软标签传递信息,但传统的温度共享假设要求精确匹配logit的范围和方差。为解决此问题,提出使用logit的加权标准差设定温度,并在应用softmax和KL散度前进行Z分数预处理。这种方法无需匹配幅值,提升了蒸馏性能。研究表明,传统温度共享不可靠,而Z分数能有效缓解此问题。对CIFAR-100和ImageNet的评估显示,该方法显著提升了知识蒸馏效果。
研究发现,使用简单组件和平衡的损失函数组合可以解决神经网络在新任务上的遗忘问题,并通过正则化程序改进了类增量学习的性能。在CIFAR-100和ImageNet上取得了国际领先的成果。
研究发现,使用简单组件和平衡的损失函数组合可以解决神经网络在新任务上的经典遗忘问题。适当的正则化程序可以改善类增量学习中的表示品质。该研究在CIFAR-100和ImageNet上取得了国际领先的成果。
知识蒸馏通过共享基于温度的软最大函数传递软标签。提出将温度设定为logit的加权标准差,并进行Z分数预处理标准化。通过预处理,学生能够关注来自教师的基本logit关系,提高蒸馏方法的性能。在CIFAR-100和ImageNet上的评估中,展示了其优越性。
联邦类增量学习(FCIL)是一种解决灾难性遗忘和非独立同分布数据的新方法。原型注入提示(PIP)方法通过注入和增强原型,并在服务器端聚合加权高斯,提升了在CIFAR100、MiniImageNet和TinyImageNet数据集上的性能。PIP在不同任务规模上表现出色,并且需要更少的本地客户端和全局迭代。PIP的源代码、基准代码和实验日志将在指定的URL上公开共享。
本文提出了一种联合训练框架,将人工神经网络的知识提炼到脉冲神经网络中,通过多个网络分支和参数限制实现。该方法在多项实验中表现出色,超越其他训练方法。在CIFAR100分类任务中,使用该方法训练的脉冲ResNet-18模型只需4个时间步就能达到77.39%的top-1准确率。
本论文介绍了一种名为PL-FSCIL的新方法,通过信息提示和预训练视觉转换器模型解决Few-Shot Class-Incremental Learning的挑战。该方法在CIFAR-100和CUB-200等数据集上验证了有效性,展示了其在实际应用中的潜力。
本论文介绍了一种名为PL-FSCIL的新方法,利用信息提示和预训练视觉转换器模型解决Few-Shot Class-Incremental Learning的挑战。该方法在CIFAR-100和CUB-200数据集上验证了有效性,展示了其在实际应用中的潜力。
知识蒸馏方法通过改进温度共享设置,提高了学生模型的性能,并在CIFAR-100和ImageNet上进行了评估。预处理方法使纯知识蒸馏方法达到了最先进方法的性能,并提供了其他蒸馏变体的收益。
ImbaGCD是一个解决不平衡广义类别发现问题的新框架,通过对齐类别先验分布来提高准确性。在CIFAR-100和ImageNet-100上的实验证明,ImbaGCD的改进效果分别为2-4%和15-19%。
该研究提出了一个两阶段学习框架,通过分析灾难性遗忘的原因,使用固定编码器和逐步更新原型分类器来解决问题。实验证明,该方法在CIFAR-100和ImageNet100上分别提高了18.24%和9.37%。
该研究提出了一种基于l2范数的新方法,用于检测ODD攻击技巧。该方法在CIFAR10/100平均OOD检测度量方面相对于之前的方法有约13%/5%的提高,并在分布内样本上提供高水平的认证和敌对鲁棒性。
本文介绍了一种名为Sqish的新型激活函数,可替代现有的激活函数。作者展示了Sqish在分类、目标检测、分割任务和对抗性鲁棒性实验中的优越性。在CIFAR100数据集上,使用ShuffleNet V2模型在FGSM对抗攻击中,相较于ReLU取得了8.21%的改进,并且在CIFAR100数据集上,使用ShuffleNet V2模型进行图像分类,相较于ReLU取得了5.87%的改进。
FCILPT是一种新方法,通过使用提示来减轻旧类别的灾难性遗忘,解决了非独立分布的数据和新类别的到来所导致的问题。实验证明FCILPT在CIFAR-100、Mini-ImageNet和Tiny-ImageNet上相比现有方法取得了显著的准确性改进。
完成下面两步后,将自动完成登录并继续当前操作。