小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本研究探讨了在无约束和有约束环境中最小化夸萨尔凸(QC)和强夸萨尔凸(SQC)函数的性能。提出了一种新的近端夸萨尔凸性概念,并证明了算法收敛至全局最小值的复杂度界限,显示随机零阶方法在某些情况下优于梯度下降法。

使用随机零阶 oracle 最小化夸萨尔凸函数

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-04T00:00:00Z

本研究提出了“运输f散度”概念,以解决一维样本空间中概率密度函数差异的衡量问题。通过结合凸函数和雅可比映射,发现这些散度具有多种有趣性质,并在生成模型中展现出实际应用潜力。

Transport f-Divergence

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-22T00:00:00Z
布雷尼尔极因子分解的神经实现

1991年,Brenier证明了极因子分解定理,将极分解推广到任意向量场F:F:F。该定理表明任何场F:F:F都可以表示为凸函数u:u:u的梯度与保测度映射M:M:M的组合。我们提出了该定理的实际实现,并探索了在机器学习中的应用。与最优输运(OT)理论密切相关,我们使用凸神经网络参数化潜力u:u:u,并通过逐点求值或辅助网络学习映射M:M:M。考虑估计逆映射的不适定问题,我们使用随机生成器近似计算前像测度M−1:M^{-1}:M−1。展示了Brenier的极因子分解在非凸优化问题和非对数凸密度采样中的应用。

布雷尼尔极因子分解的神经实现

Apple Machine Learning Research
Apple Machine Learning Research · 2024-07-16T00:00:00Z

1991年,Brenier将平方矩阵的QR分解推广到任何向量场F,即F可以通过凸函数u的梯度和保测度映射M的复合来恢复。该理论在机器学习中有实际应用,与最优输运理论密切相关。研究者将潜力u参数化为输入凸神经网络,并通过u的凸共轭u*的梯度点值计算映射M。此外,研究者还考虑了使用随机生成器近似逆映射M^{-1}的附加任务。该理论在非凸优化问题和非对数凹密度的抽样中有潜在应用。

关于 Brenier 的极分解的神经实现

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-03-05T00:00:00Z

本文介绍了一种在线凸优化算法,考虑具有对抗性时变约束的情景。通过线性优化预言机(LOO)访问约束集合,保证在长度为T的序列上,相对于损失函数产生的后悔为$O(T^{3/4})$,对约束的违反为$O(T^{7/8})$。还提出了一种更高效的算法,只需对软约束进行一阶预言机访问,并在整个序列上获得类似的边界。将后者扩展到强化学习场景,并在期望上获得类似的边界。

追逐长期约束的凸函数

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-02-21T00:00:00Z

通过引入足够统计概念,我们展示了关于损失函数族的近似秩的界限,进而改进了学习全凸的、利普希茨损失函数的全能预测器的运行时间,并为损失族具有低次多项式逼近或由广义线性模型(GLMs)生成的情况下提供了高效的全能预测器。

回归万能预测器与凸函数的近似秩

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-01-26T00:00:00Z

该文研究了针对凸目标函数的梯度流、加速梯度下降和随机梯度下降优化方法。研究发现,梯度流在希尔伯特空间中最优,但收敛缓慢;在有限维空间中,存在凸函数的梯度流曲线,其减小速度比任何单调递减且在无穷远处可积的给定函数更慢。类似的结果也适用于离散时间梯度下降、具有乘积噪声的随机梯度下降和重球 ODE 问题。

有限维与无限维希尔伯特空间中凸函数的梯度流的定性差异

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-10-26T00:00:00Z

该研究探讨了分布式多臂赌博设置在流言传播模型中的应用,推导出了静态奖励设置和敌意奖励设置的次线性遗憾界。研究者发现这些协议可以近似地优化面对单纯形的凸函数。

稀疏八卦网络中公平时效性的基于学习的方案

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-10-02T00:00:00Z

本文研究了解决两个函数之和的最小值问题的外推梯度方法,证明了该方法在 Kurdyka-Lojasiewicz 假设下得到的序列收敛于问题的临界点并具有有限长度。此外,该方法在两个函数均为凸函数的情况下具有次线性收敛率。

求解黎曼流形变分不等式问题的外推类方法

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-09-25T00:00:00Z

本研究提出了基于ADMM算法的分布式算法,用于最小化局部已知的凸函数之和。研究表明,当函数为凸函数时,目标函数值和可行性冲突都会收敛;当函数是强凸函数且有Lipschitz连续梯度时,算法生成的序列会线性收敛到最优解。此外,分析还凸显了网络结构对收敛速度的影响。

随机网络上的在线分布式学习

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-09-01T00:00:00Z

本文研究了在平滑拟凸和非凸函数上的随机梯度下降法(SGD)进行延迟更新,并得出了非渐近收敛速度。研究发现,在存在噪声的情况下,延迟的影响在几次迭代后变得微不足道,算法以与标准SGD相同的最优速度收敛。此外,在使用层压梯度进行错误补偿和多个节点上做本地SGD之后通信的情况下,与现有最佳算法相比,得到了更好的结果。这些结果表明SGD对于压缩和/或延迟的随机梯度更新是具有鲁棒性的,对于分布式并行实现特别重要。

延迟随机梯度下降的普适性理解探究

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-08-18T00:00:00Z

本文提出了一种新的聚合损失Top-K Loss,它可以更好地拟合不同的数据分布,特别是在多分布数据和不平衡数据中,可以更好地保护小类样本,并且损失仍然是凸函数,具有很好的可优化性质,但实验结果尚未取得更好的结果。

一文详解ATK Loss论文复现与代码实战

华为云官方博客
华为云官方博客 · 2023-02-27T07:17:49Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码