小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本研究提出了DualOptimizer,通过自适应学习率和解耦动量因子,解决了现有机器遗忘方法在超参数上的敏感性问题。实验证明,该方法显著提高了机器遗忘的有效性和稳定性,适用性广泛。

DualOptim: Enhancing Efficacy and Stability in Machine Unlearning with Dual Optimizers

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-22T00:00:00Z

本研究提出低张量秩适应(LoTRA)方法,优化Kolmogorov-阿诺德网络在迁移学习中的微调过程,通过自适应学习率策略提升训练效率,并验证其在偏微分方程等任务中的有效性。

Low Tensor Rank Adaptation of Kolmogorov-Arnold Networks

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-10T00:00:00Z
自适应学习率加速收敛的CMA-ES优化器

论文提出了一种改进的CMA-ES算法,通过自适应学习率提升黑箱优化问题的性能。该方法动态调整学习率,实验显示在多种基准函数上优于标准CMA-ES。自适应学习率通过指数和乘法噪声机制实现,显著提高了收敛速度和解的质量。尽管超参数敏感性分析不足,但为进化优化算法提供了改进方向。

自适应学习率加速收敛的CMA-ES优化器

DEV Community
DEV Community · 2024-10-03T09:14:51Z

本文介绍了一种名为ADA-NSTORM的方法,利用自适应学习率解决组合型最小极大优化问题,比NSTORM更有效。该方法推动了组合型最小极大优化的发展,保证了分布鲁棒性和策略评估的关键能力。

突破组合极小化优化中的复杂性壁垒

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-08-18T00:00:00Z
深度学习优化算法

本文介绍了神经网络中的优化算法,包括批量梯度下降(BGD)、随机梯度下降(SGD)和小批量梯度下降(MBGD)。BGD计算开销大,SGD速度快但不保证损失函数每次减小,MBGD结合了两者优点。文章还讨论了Momentum、NAG、AdaGrad、Adadelta、RMSprop、Adam等自适应学习率方法及其优缺点,强调了不同算法在收敛速度和效果上的差异。

深度学习优化算法

范叶亮的博客
范叶亮的博客 · 2018-02-24T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码