本研究从模式连通性视角探讨机器遗忘中的损失景观与优化动态,分析不同遗忘方法及其相互关系,揭示评估指标波动模式及遗忘方法的相似性与差异,为理解机器遗忘提供新思路。
本研究分析了图神经网络(GNNs)的优化动态和损失几何特征,发现图结构主导其非线性模式连接性,并揭示了模式连接性与泛化能力之间的关系,为图学习中的领域对齐策略提供了理论支持。
本文研究了多任务学习的优化动态,提出了在高资源任务上进行预训练,然后在高/低资源任务的混合中进行微调的方法,通过实证研究证明了该方法的持续改进。在神经机器翻译和多语言语言建模中实证了其改进效果。
完成下面两步后,将自动完成登录并继续当前操作。