本研究提出Fisher合并方法,以提高模型合并的效率和性能。通过对不同数据集模型的加权平均,探讨了模型合并的潜力与挑战,并提出新的正则化方法以提升合并效果。研究结果表明,强大的基础模型和较大模型显著改善合并性能,为未来研究提供重要参考。
本研究探讨了语言模型在路径星任务中的表现不足,提出了一种新正则化方法,通过相同图的结构样本改善模型表现,证明该任务是可学习的,并为编码器模型提供了解决方案。
本文提出了一种新的半定松弛方法,以提高ReLU网络的鲁棒性,效率是现有方法的三倍。研究探讨了对抗训练的极限,并提出了新的正则化方法和防御规则项,显著提升了模型在CIFAR-10和MNIST数据集上的鲁棒性和准确性。通过大量实验验证了这些方法的有效性。
本文探讨了语言模型中的情感偏见,分析了敏感属性对生成文本情感的影响。研究发现,现有模型在新闻和维基百科语料库中存在显著偏见。提出了正则化方法以提高公正性,同时保持模型性能,并介绍了新的偏差测量数据集和评估框架,以更好地识别和减少语言模型中的社会偏见。
本文提出了一种深度神经网络模型,解决音频与图像情感对应问题。研究开发了“感觉变分自编码器”(SynVAE)和“Video2Music”框架,能够生成与视频情感匹配的音乐。实验表明生成音乐的质量和匹配度较高。此外,研究探讨了音乐生成与情感表达的关系,提出了基于音乐元素的正则化方法(MusER),并设计了客观的音乐美感测量模型。
本文提出了一种利用形状周围对抗样本的正则化方法,用于从稀疏3D点云中学习神经有符号距离函数(SDF)。实验结果表明,该方法在合成数据和真实数据中均优于现有基线和最新成果。
本文介绍了一种新型的正则化方法,通过线性损失行为惩罚梯度混淆,鼓励鲁棒性。实验证明,使用该方法训练的模型能够避免梯度混淆,比对抗训练更快。
本文提出了一种新颖的基于测度论的机器学习理论,提出了一种新的深度学习正则化方法,并在 CIFAR-10、CIFAR-100 和 SVHN 中进行了实验证明其优于之前的方法。该理论为深度学习中的正则化方法提供了理论基础,并讨论了对一次性学习、表示学习、深度学习和课程学习的几种后果。
SuperUDF是一种自我监督的UDF学习方法,用于高效训练和对稀疏采样的鲁棒性。它使用了一种新颖的正则化方法和基于学习的网格提取方法。SuperUDF在多个数据集上的质量和效率方面优于现有技术。
本文旨在量化和减少语言模型中的情感偏见。研究发现敏感属性的变化会影响生成文本的情感。使用公平机器学习的方法量化情感偏见,并证明大规模模型存在较高的偏见。提出了使用嵌入和情感预测导出的正则化方法,提高了公正度量,同时保持了困惑度和语义相似性。
该研究提出了监督插值的概念框架,通过松弛和概括Mixup,提出了一种名为LossMix的正则化方法,并设计了一种两阶段的域混合方法,超越了Adaptive Teacher,并在无监督领域适应中有了新的突破。
本研究提出了DreaMo,一种从单个网络视频中重建关节3D形状的方法。通过使用条件视图扩散先验和定制的正则化方法解决了低视角覆盖带来的挑战,并引入了骨架生成策略。研究结果表明DreaMo在新视角渲染、关节形状重建和骨架生成方面具有良好的质量。现有方法无法解决视角覆盖不完整的几何问题。
神经网络的可塑性丧失是一种现象,其能力从新的经验中学习受到影响。研究发现,神经网络方向的曲率减少导致了可塑性的丧失。通过实证研究,证明了曲率减少与可塑性丧失同时或之前发生,并提出了一种缓解可塑性丧失的正则化方法。
本文提出了一种混合的模仿学习方法,将行为克隆和逆向加权分别作为策略和奖励模型,结合软强化学习框架下的无限制行为克隆技术和正则化方法,以克服使用诱导式奖励和通过对策略进行学习的方法时的一些困难。该方法简单灵活,具有稳定的学习和最小化的超参数调整。
深度学习中的稳健泛化是一个重大挑战,研究发现正则化方法可以提高网络的准确性,并通过机械解释来理解其效果。训练动态包含两个连续阶段。
本文旨在量化和减少语言模型中的情感偏见。研究发现,敏感属性的变化会影响生成文本的情感。使用公平机器学习文献中的公正度量证明了大规模模型存在高偏见。提出了使用嵌入和情感预测导出的正则化方法,提高了公正度量,同时保持了困惑度和语义相似性。
本文研究了在有噪声标签的情况下,过度参数化的深度神经网络的正则化方法。实验结果表明,通过参数与初始化之间的距离和为每个训练示例添加一个可训练的辅助变量,可以有效提高模型的泛化性。泛化误差的上界独立于网络的大小,可达到无噪声标签情况下的水平。
本文提出了一种新颖的基于测度论的机器学习理论,提供了一种新的深度学习正则化方法,并在 CIFAR-10、CIFAR-100 和 SVHN 中表现优于之前的方法。该理论为深度学习中的一族实际成功的正则化方法提供了理论基础。与统计学习理论不同,该学习理论通过测度论分析每个问题实例,提供了不同类型的结果和见解。还讨论了该结果对一次性学习、表示学习、深度学习和课程学习的几种后果。
本文研究了语言模型中的情感偏见,并提出了一种正则化方法来减少偏见。研究发现大规模模型在不同语料库上训练时存在较高的偏见。该正则化方法提高了公正度量,同时保持了困惑度和语义相似性。
完成下面两步后,将自动完成登录并继续当前操作。