小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本文讨论了优化算法在深度学习中的应用,重点介绍了梯度下降法及其变种,包括随机梯度下降(SGD)和动量法。通过小批量梯度下降提高训练效率,并介绍了RMSProp和Adam优化器的原理与优势,同时提到学习率调整策略和二阶优化方法的局限性。

CS231n 讲义 III:优化

Louis Aeilot's Blog
Louis Aeilot's Blog · 2026-02-11T01:45:09Z

本研究探讨了在无约束和有约束环境中最小化夸萨尔凸(QC)和强夸萨尔凸(SQC)函数的性能。提出了一种新的近端夸萨尔凸性概念,并证明了算法收敛至全局最小值的复杂度界限,显示随机零阶方法在某些情况下优于梯度下降法。

使用随机零阶 oracle 最小化夸萨尔凸函数

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-04T00:00:00Z

本教程介绍了使用C#进行深度学习的基础知识,包括微积分、导数、梯度下降法及其在神经网络中的应用,强调数学在深度学习中的重要性。

C# 入门深度学习:万字长文讲解微积分和梯度下降

dotNET跨平台
dotNET跨平台 · 2024-11-19T00:01:10Z

本研究探讨了超参数化两层神经网络在无参数回归中的训练问题,提出了一种无分布假设的分析框架。结果表明,使用梯度下降法及早停止训练的神经网络能够实现与经典核回归相同的风险收敛速率,为无参数方法提供了理论支持。

梯度下降发现超参数化神经网络在无参数回归中的尖锐泛化:一种无分布假设的分析

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-11-05T00:00:00Z

本文研究了在过参数化情况下,浅层神经网络的训练方法,利用二次激活函数找到全局最优解。结果表明,该方法适用于任意训练数据,并能高效找到最优解。同时探讨了差分激活函数的梯度下降法收敛性及过度参数化对优化景观的影响,揭示了神经网络的学习特征和推广能力。

通过代数对象组合全局优化器以解决神经网络中的推理任务

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-02T00:00:00Z

本文提出了多种针对随机组合优化问题的算法,包括改进的梯度下降法和分布式优化算法,验证了其在强化学习和投资组合管理中的有效性。研究分析了非光滑弱凸问题的收敛性,展示了算法的稳定性和泛化能力,推动了分布式组合优化的发展。

具有可证明收敛性的随机组合极小极大优化

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-22T00:00:00Z

本文分析了深度线性神经网络的学习动态,发现其具有非线性学习特性,包括快速收敛和在特定初始条件下的非监督预训练效果。同时,研究探讨了梯度下降法在递归神经网络中的应用,证明了在适当初始化下网络可以达到最优,并分析了学习速率对动力学和轨道稳定性的影响。

两层窄网络中梯度流的闭形式描述缺失

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-15T00:00:00Z

深度学习是机器学习的一个分支,通过多个表示层学习。神经网络是深度学习的模型,使用张量作为基本数据结构。神经网络的运算可以简化为张量运算,包括逐元素运算、张量积和张量变形。优化使用梯度下降法,反向传播是计算梯度的方法之一。使用Python的Keras库可以实现手写数字识别任务。

AI入门之深度学习:基本概念篇

京东科技开发者
京东科技开发者 · 2024-08-08T03:00:06Z

本文通过Lyapunov分析证明了使用梯度下降法训练神经网络权重的动态会收敛到接近最小范数解的一个点,并提供了Arora等人普适性结果的另一证明。

基于梯度的学习系统线性化的弱相关性原则

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-01-08T00:00:00Z
深度学习入门概要

本文介绍了深度学习框架和一元线性回归的基本概念,包括PaddlePaddle、Tensorflow、Caffe、Theano、MXNet、Torch和PyTorch等主流框架。一元线性回归使用一条直线描述数据趋势,通过损失函数衡量预测值与实际值的差距,并使用梯度下降法求解最优参数。最后,使用PyTorch实现了一元线性回归模型。

深度学习入门概要

Seraphineの小窝
Seraphineの小窝 · 2023-11-28T01:59:36Z
梯度下降法(Gradient Descent):优化世界中的魔法箭头

梯度下降法是机器学习和优化算法中广泛应用的方法,通过迭代更新参数以逼近最优解。它在训练神经网络、线性回归和特征选择等领域有广泛应用。梯度下降法具有全局优化能力和广泛适用性,但学习率选择、局部最优解和高计算成本是其不足之处。尽管如此,梯度下降法仍然是解决实际问题的重要工具。

梯度下降法(Gradient Descent):优化世界中的魔法箭头

Long Luo's Life Notes
Long Luo's Life Notes · 2023-06-20T00:36:02Z
梯度下降法(Gradient Descent):优化世界中的魔法箭头

本文介绍了梯度下降法在机器学习和优化算法中的应用,包括其数学原理和步骤,以及应用实例。梯度下降法具有全局优化能力、广泛适用性和可扩展性等优点,但也存在不足之处。

梯度下降法(Gradient Descent):优化世界中的魔法箭头

Long Luo's Life Notes
Long Luo's Life Notes · 2023-06-20T00:36:02Z

1974年,哈佛大学沃伯斯博士提出了误差反向传播算法,通过误差的梯度做反向传播,更新模型权重,实现网络的万能近似功能。梯度下降法是用来计算函数最小值的。选择合适的学习率是训练神经网络模型的重要步骤之一。反向传播算法的出现,大大提高了模型训练的效率与精度,使复杂神经网络模型的训练成为可能。

反向传播(BP) - 蝈蝈俊

蝈蝈俊
蝈蝈俊 · 2023-04-18T13:30:00Z
Personal Notes on Machine Learning (Coursera - Andrew NG)

本文记录了作者在Coursera学习Andrew Ng的机器学习课程的笔记与感悟,涵盖机器学习的定义、算法分类(监督学习与无监督学习)、线性回归、成本函数、梯度下降法、特征缩放及多项式回归等内容。作者强调了实践与主动思考的重要性。

Personal Notes on Machine Learning (Coursera - Andrew NG)

Henry Z's blog
Henry Z's blog · 2018-07-07T10:17:32Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码