本研究探讨了随机高斯平滑零阶外梯度算法在非凸-非凹目标函数的最小-最大优化中的表现,证明了其在约束和非约束情况下的收敛性,并引入了新的近端变分不等式概念,为优化非可微问题提供了解决方案。
该研究提出了一种新方法,通过非凸优化算法优化稀疏参数模型中的桥型问题,显著提高了自适应桥估计量的多重惩罚路径的计算效率,尤其在处理时间依赖数据时表现突出。
本研究提出GA-Planes模型,旨在解决隐式神经表示的非凸优化问题。该模型通过凸优化训练,能够有效整合多种特征,在2D和3D体积拟合任务中表现优异,且具备良好的内存效率和可优化性。
本研究提出了Amplified SCAFFOLD算法,旨在解决联邦学习中的客户端可用性问题,专注于非凸优化和周期性参与,从而显著提升通信效率和鲁棒性。
本文将深度学习中的非凸优化问题重新表述为概率测度空间中的凸优化,建立了贝叶斯、变分贝叶斯和集成学习方法之间的数学联系。通过研究统一理论,提供了不确定性量化和新集成方案,并证明了深度集成系统会收敛到概率测度空间中的全局极小值。
该论文重新审视了非凸优化设置中随机镜像下降(SMD)的收敛性,并克服了先前结果的限制。通过新的非凸SMD收敛分析,将结果扩展到高概率收敛和全局收敛。研究表明,改进的SMD理论在非凸机器学习任务中具有优势。同时,开发了可证明收敛的随机算法用于训练线性神经网络。
本研究提出了一种通过非凸优化从线性测量中估计低秩矩阵的算法,适用于有噪声和无噪声的情况,并以线性速率收敛于未知低秩矩阵。实验证明该算法优于现有算法。
本研究探讨了非凸优化中DR-submodular函数的最大化问题。提出了基于凸体约束的自然分解方法,通过插值下闭凸体和一般凸体,实证了算法的优越性。
该文章介绍了一种基于深度生成网络的非凸优化算法元启发式方法,能够在连续、超高维度的空间中进行有效搜索。通过网络训练和局部梯度种群的演化,该算法能够处理高维空间的维度困境,并在一系列标准优化问题中表现出更好的性能。文章还讨论了深度网络超参数化、损失函数设计和网络架构选择的作用,为解决非凸优化问题的算法提供了基础。
该研究探讨了利用随机重排来压缩有限和函数的算法,Random Reshuffling。该算法在凸优化和非凸优化中很有实用性,并且比随机梯度下降更快。研究者通过理论和实验表明,新的方差类型为RR的卓越性能提供了额外的理论依据。同时,他们还展示了Shuffle-Once算法的快速收敛性,并提出了适用于非强凸和非凸目标的多种算法。他们的理论优于现有文献,并揭示了不同类型的随机变量可能在某些情况下产生更大的影响。
本文介绍了一种新的非均匀光滑条件下的优化方法,通过限制沿轨迹的梯度,获得更强的凸优化和非凸优化问题的结果。证明了(随机)梯度下降和 Nesterov 加速梯度法在这种光滑条件下的收敛率,不需要梯度剪裁,并允许在随机场景中的有界方差的重尾噪声。
完成下面两步后,将自动完成登录并继续当前操作。