本研究提出了一种基于内部表示的统一度量——亲和力与多样性,旨在解决演示选择方法在不同优化目标下的不一致性问题。实验结果表明,这两者与测试准确率显著相关,从而促进了一致性。
该研究提出了一种新算法,通过动态规划和分支界限法优化分类树,显著提升训练性能,解决了NP困难性问题,测试准确率比贪心启发式提高5%。
本文探讨信息平面在量子学习模型中的应用,提出通过压缩输入数据的信息量来优化学习算法,采用损失函数的乘法正则化和学习率调度器两种方法。实验结果显示,该算法提高了测试准确率和收敛速度。
本研究通过简化基线模型、引入数据增强和知识蒸馏方法,提高了声学场景分类中小样本训练的效率和准确性,测试准确率最高达到62.21%。
该研究提出了一种经过认证的防御方法来对抗无标签污染攻击,成功率降低到0-16%,同时几乎不影响测试准确率。该方法在降低攻击成功率和保持模型效用方面表现最好,可作为评估的基准。
AdaGossip是一种通过自适应调整共识步长来提高分布式学习测试准确率的新技术。
本文提出了一种自适应的聚类联邦学习框架FedAC,通过解耦神经网络并为每个子模块使用不同的聚合方法,将全局知识融合到簇内学习中。实验结果表明,FedAC在不同的非独立同分布设置下,CIFAR-10和CIFAR-100数据集的测试准确率分别提高了约1.82%和12.67%。
我们提出了一种经过认证的防御方法来对抗无标签污染攻击,通过使用扩散模型对受损的训练数据进行处理,我们在七种无标签污染攻击中将攻击成功率降低到0-16%,同时几乎不影响测试准确率。与现有的对抗无标签攻击的防御方法相比,我们的防御方法在降低攻击成功率和保持模型效用方面表现最好。我们的结果强调未来需要研究开发更强大的无标签攻击方法,并将我们的认证而实用的防御方法作为评估这些攻击方法的强有力的基准。
该文介绍了一种新的分层联邦学习方法 - 分层独立子模型训练(HIST),通过将全局模型划分为不相交的子模型,并将它们分布在不同的细胞中来解决分层环境下的计算、存储和通信负担问题。作者证明了 HIST 对于非凸损失函数的收敛行为,并展示了几个属性对性能效率权衡的影响。数值实验验证了 HIST 能够大幅节省通信成本,并实现相同的目标测试准确率。
DEEM是一种用于小麦营养缺陷分类挑战的方法,将数据集分成不同日期的离散组来训练模型,并采用伪标签方法将高置信度的测试数据标记并纳入训练集,最终将各组的模型统一获得整个数据集的模型。在Deep Nutrient Deficiency Challenge中,该方法获得了平均93.6%的Top-1测试准确率,并荣获了第一名。
DiffPrep是一种自动搜索适用于给定表格数据集和可微分机器学习模型的数据预处理流水线的方法。通过将搜索空间转化为连续、可微分的空间来高效求解,只需训练一次机器学习模型即可进行流水线搜索。实验结果表明,DiffPrep在18个真实数据集中有15个取得了最佳的测试准确率,并将模型的测试准确率提高了多达6.6个百分点。
本文比较了六个机器学习算法在乳腺癌数据集上的分类测试准确性,结果显示所有算法表现良好,超过90%的测试准确率,其中MLP算法表现最佳,测试准确率高达99.04%。
完成下面两步后,将自动完成登录并继续当前操作。