小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本文探讨了动量机制对优化器(如SignSGD和Adam)学习率与Batch Size关系的影响。动量通过对梯度的滑动平均,等效于放大Batch Size,从而影响学习率的调整。研究表明,动量的引入使学习率与Batch Size之间的关系更加复杂,尤其在Adam中表现出新的特性。

重新思考学习率与Batch Size(四):EMA

科学空间|Scientific Spaces
科学空间|Scientific Spaces · 2025-09-22T06:37:00Z

本文分析了Muon优化器的学习率与Batch Size的关系,结果与SignSGD一致,未发现新规律。通过平均场方法简化计算,得出结论:学习率与Batch Size的关系保持不变。

重新思考学习率与Batch Size(三):Muon

科学空间|Scientific Spaces
科学空间|Scientific Spaces · 2025-09-15T14:52:00Z

本文探讨了平均场方法在SignSGD和SoftSignSGD学习率计算中的应用,简化了推导过程。通过平均场近似,揭示了学习率与Batch Size的关系,特别是“Surge现象”,即Batch Size增大时学习率可能减小。该方法减少了假设,计算更简便,展示了平均场的灵活性和有效性。

重新思考学习率与Batch Size(二):平均场

科学空间|Scientific Spaces
科学空间|Scientific Spaces · 2025-09-10T02:18:00Z

本文探讨了学习率与Batch Size的关系,尤其是在非SGD优化器中的复杂性。作者回顾了以往的分析方法,简化了推导步骤,并研究了Muon优化器的潜力。通过对SGD的分析,得出了学习率的理论最优解,指出Batch Size与训练数据量和步数的关系,并强调了噪声强度对学习率的影响。

重新思考学习率与Batch Size(一):现状

科学空间|Scientific Spaces
科学空间|Scientific Spaces · 2025-09-01T03:10:00Z
在Google Colab中优化GPU使用

通过调整模型优化GPU使用,可以显著加速计算机视觉项目的训练。采用混合精度训练(FP16)减少内存占用,同时保持模型权重为FP32。增大batch_size提高GPU利用率,计算更准确的梯度。设置torch.backends.cudnn.benchmark为True可加速算法选择,提升训练效率。这些方法有效解决了训练速度慢的问题。

在Google Colab中优化GPU使用

DEV Community
DEV Community · 2025-05-10T14:24:55Z

本文介绍了四种微调方法,包括SFT监督微调、LoRA微调、P-tuning v2微调和Freeze微调,以及使用ChatGLM2-6B模型进行微调的步骤和注意事项。文章还提到了学习率和batch_size对模型更新的影响。

基于 P-Tuning v2 进行 ChatGLM2-6B 微调实践 | 京东云技术团队

京东科技开发者
京东科技开发者 · 2023-10-12T03:46:57Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码