小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本文讨论了卷积神经网络(CNN)的架构和训练方法,包括归一化层、正则化(如Dropout)、激活函数(如ReLU和GELU)、残差网络(ResNet)和权重初始化(Kaiming初始化)。还介绍了数据预处理、数据增强、迁移学习策略及超参数优化步骤,强调系统调试的重要性,指出大多数失败源于基本设置问题,而非超参数选择。

CS231n 讲义 VI:卷积神经网络架构与训练

Louis Aeilot's Blog
Louis Aeilot's Blog · 2026-04-03T14:45:09Z
中级机器学习从业者必备的5个Python脚本

本文介绍了五个Python脚本,旨在简化机器学习工程师的重复性任务,包括自动特征工程管道、超参数优化管理器、模型性能调试器、交叉验证策略管理器和实验跟踪器。这些工具提高了数据预处理、超参数调优和模型性能分析的效率,使工程师能够专注于模型构建。

中级机器学习从业者必备的5个Python脚本

MachineLearningMastery.com
MachineLearningMastery.com · 2025-11-13T11:00:54Z
Kubeflow推动云原生AI:2025年KubeCon + CloudNativeCon欧洲大会的展望

Kubeflow社区因简化Kubernetes中的AI/ML体验而快速发展,提供端到端解决方案。在KubeCon + CloudNativeCon上,用户和贡献者分享技术与最佳实践。Kubeflow 1.10发布了新功能,包括模型注册的新UI和超参数优化,社区积极展示其在AI/ML中的应用。

Kubeflow推动云原生AI:2025年KubeCon + CloudNativeCon欧洲大会的展望

Cloud Native Computing Foundation
Cloud Native Computing Foundation · 2025-06-06T20:19:43Z

PnPXAI框架解决了现有可解释人工智能(XAI)在不同神经网络和数据模式下的局限性。该框架能够自动检测模型架构、推荐解释方法并优化超参数,从而提升了解释的灵活性和有效性,适用于医疗和金融等多个领域。

PnPXAI: A Universal Explainable AI Framework for Providing Automatic Explanations Across Diverse Modalities and Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-15T00:00:00Z

本研究提出MaxUCB方法,旨在解决自动化机器学习中的算法选择和超参数优化的资源配置问题。该方法在轻尾和有界奖励分布下表现优异,效率高于传统方法。

在强盗问题中使用CASH:面向自动化机器学习的最大K臂问题

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-08T00:00:00Z

本研究评估了四种超参数优化策略对八种生成模型的影响,结果表明优化提高了合成数据的质量,但需结合领域知识以确保其临床有效性。

Generating Reliable Synthetic Clinical Trial Data: The Role of Hyperparameter Optimization and Domain Constraints

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-08T00:00:00Z

本研究深入探讨了检索增强生成(RAG)的超参数优化,填补了现有方法缺乏基准测试的空白。结果表明,贪婪或迭代随机搜索能有效提升RAG性能,优先优化模型效果更佳。

检索增强生成的超参数优化方法分析

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-06T00:00:00Z
结合Optuna进行PyTorch Lightning的超参数优化

本文介绍了如何结合PyTorch Lightning和Optuna进行深度学习模型的超参数优化,包括安装库、定义神经网络模型、设置超参数搜索空间、训练模型以及评估最佳模型的表现。

结合Optuna进行PyTorch Lightning的超参数优化

MachineLearningMastery.com
MachineLearningMastery.com · 2025-04-29T16:17:34Z

本研究提出了一种新颖的超参数优化方法,通过引入训练层数作为保真度来源,显著节约了计算和内存资源,推动了多保真度超参数优化算法的发展。

冻结层:节省内存的多保真度超参数优化

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-14T00:00:00Z

本研究提出了一种新的超参数优化方法,结合线性代理模型与遗传算法,以解决探索与利用的平衡问题。实验结果表明,该方法平均性能提升1.89%,最大提升6.55%。

快速遗传探索与代理利用的平衡方法用于超参数优化

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-10T00:00:00Z
如何使用Optuna进行Scikit-learn的超参数优化

本文介绍了如何使用Optuna进行Scikit-learn的超参数优化。Optuna是一个自动化超参数优化框架,能够与Scikit-learn无缝集成。用户通过定义目标函数和设置超参数搜索空间,可以训练随机森林分类器并优化其性能。Optuna利用贝叶斯优化和内部策略提高了超参数调优的效率,帮助用户找到最佳模型配置。

如何使用Optuna进行Scikit-learn的超参数优化

MachineLearningMastery.com
MachineLearningMastery.com · 2025-04-09T13:00:55Z

本研究探讨了强化学习中的超参数优化,重点分析概率课程学习(PCL)中的高效调优。通过结合SHAP工具,研究超参数相互作用对PCL性能的影响,并提出优化搜索空间的策略,以提高超参数优化的效率和实用性。

具有实用可解释性和解释方法的概率课程学习中的超参数优化

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-09T00:00:00Z

本研究探讨了大型语言模型(LLMs)在神经网络超参数优化中的应用。通过微调的Code Llama,我们的方法在生成超参数建议方面高效且具有竞争力,显著降低了计算开销,并在根均方误差(RMSE)上表现优异,展示了LLMs在快速实验中的潜力。

Optuna vs Code Llama: Are Large Language Models a New Paradigm for Hyperparameter Tuning?

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-08T00:00:00Z
Neural DSL v0.2.5 更新:探索多框架超参数优化功能

Neural DSL v0.2.5发布,改进了超参数优化,支持PyTorch和TensorFlow。新增统一的超参数优化系统,简化了优化器处理,训练循环报告精度和召回率。修复多个bug,增强错误信息和层验证。

Neural DSL v0.2.5 更新:探索多框架超参数优化功能

DEV Community
DEV Community · 2025-03-30T10:10:17Z
跨框架超参数优化变得简单 - Neural DSL v0.2.3

Neural DSL更新至v0.2.3,新增多框架超参数优化功能,支持PyTorch和TensorFlow。用户可通过单一配置定义模型,简化实验流程。同时增加新层支持,修复多个bug,提升模型构建的灵活性和可扩展性。

跨框架超参数优化变得简单 - Neural DSL v0.2.3

DEV Community
DEV Community · 2025-03-16T20:02:49Z
百万美金炼出「调参秘籍」!阶跃星辰开源LLM最优超参工具

阶跃星辰研究团队训练了3700个大语言模型,发现超参数优化的新规律(Step Law),并开源相关工具和数据。研究表明,最优学习率和批量大小与模型和数据规模呈幂律关系,适用性广泛。

百万美金炼出「调参秘籍」!阶跃星辰开源LLM最优超参工具

机器之心
机器之心 · 2025-03-13T02:23:32Z

本研究提出了HyperSHAP框架,解决超参数优化中的可解释性问题。通过加性分解性能度量,提供超参数的重要性及其交互作用的解释,强调低阶交互对模型性能可解释性的提升。

HyperSHAP: Shapley Values and Interactions for Hyperparameter Importance

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-03T00:00:00Z

本文提出了一种基于预训练的迁移学习框架,通过共享超网络微调语言模型,支持语言和视觉任务。研究探讨了超参数优化对模型性能的影响,提出了CARBS算法和LOMO优化器,以降低内存使用并提高效率。此外,QFT框架实现了内存高效调优,将模型状态内存减少至21%。研究还关注大型模型的细调内存开销,提出高效激活函数和Memory-Sharing Backpropagation策略,降低内存使用30%。

通过记忆化意识降低机器学习、视觉和语言模型训练流程中的超参数调优成本

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-11-06T00:00:00Z

Imbue公司成功训练了一个70B参数的语言模型,并分享了数据集创建、评估和基础设施设置的经验。他们开发了超参数优化器CARBS,帮助研究者在小规模实验中找到最佳超参数,以便扩展到大规模模型。通过大量实验,Imbue团队优化了模型性能,确保训练过程的稳定性。

70B大模型训练秘方③:1000次超参数优化实验的发现

OneFlow深度学习框架
OneFlow深度学习框架 · 2024-11-05T00:04:32Z

本研究提出了一种基于贝叶斯优化框架的自动化超参数优化方法,能够超越人类经验的调参表现。该方法适用于多种机器学习模型,包括深度学习和强化学习,具有快速收敛和良好的推广性。此外,研究还介绍了多保真贝叶斯优化和迁移学习的策略,以显著提高优化效率。

神经网络超参数调优的贝叶斯优化

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-29T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码