本研究提出了一种新方法,通过在小数据集上搜索量化策略并推广到大规模数据集,解决了混合精度量化方法的计算开销问题。实验结果表明,该方法在CIFAR10数据集上达到了与ImageNet相当的准确度,同时显著降低了计算成本,效率提高了150%。
本文介绍了如何使用CIFAR-10数据集,CIFAR10()函数的参数包括数据路径、训练/测试选择和数据转换等。训练数据包含50000张图像,测试数据包含10000张。用户可以选择下载并提取数据集或手动下载,示例代码展示了如何加载和显示数据。
该研究提出了一种名为sigma-zero的新的l0范数攻击方法,通过对MNIST、CIFAR10和ImageNet数据集的评估,发现了最小的l0范数对抗性示例,并在成功率、扰动大小和可扩展性方面优于其他稀疏攻击。
该文章提出了一种通用的框架,通过学习攻击目标与图像中的语义关系,推断出基于输入图像和目标标签的目标条件扰动。实验结果表明,该方法在MNIST和CIFAR10数据集上表现出优异性能,并以小扰动范数获得高愚弄率。
研究人员提出了AnInfoNCE方法,用于揭示潜在因素并推广可识别性结果。实验证实了该方法在CIFAR10和ImageNet中恢复丢失信息的能力,但降低了下游任务准确度。讨论了理论假设与实际实现不匹配问题。
本文介绍了使用PyTorch的自动混合精度(AMP)训练接口在半精度下训练神经网络的方法。通过AMP,可以自动处理数据类型转换和缩放,最小化精度和模型质量损失。在CIFAR10数据集上训练ResNet50模型时,使用AMP可以加快训练速度,且没有准确性损失。
该文章提出了对手感知部分标签学习方法,通过引入对手标签提高预测标签可靠性。作者还提出了ATM算法实现分类器和风险函数一致性。实验结果显示该方法在CIFAR10、CIFAR100和CUB200数据集上鲁棒性高。
该研究提出了一种基于l2范数的新方法,用于检测ODD攻击技巧。该方法在CIFAR10/100平均OOD检测度量方面相对于之前的方法有约13%/5%的提高,并在分布内样本上提供高水平的认证和敌对鲁棒性。
通过DFL算法解决了去中心化联邦学习中的局部一致性和局部异构过拟合问题,并在MNIST、CIFAR10和CIFAR100数据集上验证了算法的优越性能。
完成下面两步后,将自动完成登录并继续当前操作。