通过研究相位恢复问题,提出了一种具有先验结构的正则化项,以推动符合简单性或低复杂性概念的解。研究了无噪声恢复和对噪声的稳定性,并提供了普适的分析框架。给出了达到精确恢复的充分条件和高斯测量映射的样本复杂度界限。在有噪声的情况下,考虑了约束和惩罚形式,并证明了在足够小的噪声情况下的线性收敛性。再次给出了高斯测量的线性收敛样本复杂度界限。
本文介绍了一种新颖的损失设计——“Lai损失”,通过整合正则化项到传统损失函数中,有效控制模型平滑度,减少过拟合和欠拟合。同时,提出了一种随机抽样的方法,解决了在大样本条件下应用该方法的挑战。实验结果证明Lai损失设计可以在确保最大准确性的同时控制模型平滑度。
本文研究了时间行为定位(TAL)在视频中查找特定动作片段的方法,并提出了两个正则化项以适应时间约束条件。实验结果表明,该方法在TAL数据集上优于基线,并可推广到其他TAL方法。
该文章介绍了基于图像的深度强化学习中的数据增强技术,并提出了一种名为切线传递的正则化项。该方法在多个领域中验证了其有效性,取得了最先进的性能,并展现了更高的样本效率和更好的泛化能力。
本研究提出了一种基于牛顿法的多目标优化算法,用于超参数搜索。算法通过计算梯度矩阵和引入正则化项来快速找到改进的参数值。与贝叶斯优化相比,该算法在多类目标检测问题中表现更好。然而,参数值可能会在迭代过程中震荡,需要根据最佳结果确定最优参数值。
该文介绍了 QFree 方法,一种基于优势函数的 MARL 通用价值函数分解方法,使用混合网络结构满足等价分解,并将等价条件作为正则化项开发了一种新型损失函数。在非单调矩阵博弈场景和 SMAC 等复杂 MARL 基准环境中验证了该方法的有效性,并展示了其在性能方面达到了最新水平。
该文介绍了一种新的方法,通过综合应用个体公平性、对抗鲁棒性和因果性,实现了分类器的公平、对抗鲁棒和因果感知。通过引入新的因果对抗扰动和对抗训练,创建了一个将三者相结合的新的正则化项,并在真实世界和合成数据集上进行了评估,证明了其有效性。
本文提出了一种利用图结构进行正样本-未标记样本节点分类的方法,通过引入同类偏执来增加准确的监督信息,并提出了一种正则化项,以使模型与图结构对齐。实证评估表明,该方法具有更卓越的性能。
本文研究了视频中查找特定动作片段的时间行为定位问题,提出了IntraC和InterC两个正则化项以适应时间约束条件,并在两个数据集上进行了实验。结果表明该方法优于基线,并可推广到其他方法。
本文提出了一种在视频中查找特定动作片段的时间行为定位方法,使用IntraC和InterC两个正则化项适应时间约束条件。实验结果表明,该方法优于基线,并可推广到其他TAL方法。
本文研究了对抗鲁棒性的半监督对抗训练,提出了正则化项以应用于无标签数据,并通过知识蒸馏结合提出的正则化项进行半监督对抗训练算法。实验证明,该算法在性能方面取得了显著提升,即使有限的有标签数据量,仍能与使用所有标签数据的监督对抗训练算法相媲美。
本文研究了对抗鲁棒性的半监督对抗训练,探究了稀缺有标签数据情况下的鲁棒风险上界,并提出了正则化项应用于无标签数据。通过半监督教师模型的知识蒸馏结合提出的正则化项进行半监督对抗训练算法。实验证明,相较于现有算法,我们的算法在性能方面取得了显著提升,即使有限的有标签数据量,我们的算法仍能与使用所有标签数据的监督对抗训练算法相媲美,在准确率和鲁棒准确率上表现接近。
完成下面两步后,将自动完成登录并继续当前操作。