小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
沉浸式翻译 immersive translate
Dify.AI
Amazon Nova Lite Fine-Tuning: 高性价比的视觉检测模型微调案例与实践

本文介绍了在Amazon Bedrock上微调Amazon Nova Lite 1.0的两个案例,分别针对航拍视角检测和低光照监控场景。微调后,指令遵循能力和检测准确率显著提高,成本降低,提供了高性价比的解决方案。

Amazon Nova Lite Fine-Tuning: 高性价比的视觉检测模型微调案例与实践

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2026-01-07T06:24:39Z
语言模型微调的温和介绍

本文介绍了语言模型微调的原因、数据集、过程及技术。微调能提升模型在特定领域的理解,适用于指令跟随和对话生成,且通常比预训练更快。文中还提到了一些高级微调技术,如基于人类反馈的强化学习(RLHF)和低秩适应(LoRA)。

语言模型微调的温和介绍

MachineLearningMastery.com
MachineLearningMastery.com · 2026-01-06T23:21:15Z

在我们的实测中,宝可梦数据集的训练损失函数(Loss)呈现了下降的曲线,从初始的4.6迅速下降并收敛至2.5以下,可以展示利用LLaMA-Factory微调的训练效果,证明了训练后模型在特定领域数据上的高效适配能力。为了让大家直观体验这一流程,我们准备了一个有趣的实战:复刻经典的宝可梦(Pokémon)角色识别与描述任务,手把手带大家体验从环境安装、数据构造、LoRA...

开源生态再扩容!LLaMA-Factory正式支持ERNIE-4.5全系列,实战单卡微调宝可梦图鉴

百度大脑
百度大脑 · 2025-12-29T11:55:56Z
OpenAI在QCon AI NYC:企业的微调

在2025年QCon AI NYC大会上,OpenAI的Will Hang介绍了Agent RFT,这是一种强化微调方法,旨在提升工具使用代理的性能。他强调了优化提示和任务的重要性,并提出了监督微调和偏好优化等多种微调选项。Hang指出,强化微调适合需要探索策略的任务,并强调了在整个轨迹中进行信用分配的重要性。Zi展示了实际应用案例,强调了在工具调用预算下的有效内容定位。

OpenAI在QCon AI NYC:企业的微调

InfoQ
InfoQ · 2025-12-17T19:25:00Z
nanoGPT - 一个简洁快速的中型GPT模型训练与微调库,…

nanoGPT是Andrej Karpathy发布的高效GPT模型训练库,具有简洁实现和少量依赖,适合研究和工程师学习Transformer训练流程。支持从零开始训练和小数据集微调,便于教学、自学和快速原型开发,适合初学者和中级用户。该项目遵循MIT许可证,广泛应用于教育和研究。

nanoGPT - 一个简洁快速的中型GPT模型训练与微调库,…

云原生
云原生 · 2025-12-17T12:00:00Z
如何在NVIDIA GPU上使用Unsloth微调大型语言模型

Unsloth利用NVIDIA RTX AI PC和DGX Spark加速流行AI模型的微调,构建个性化助手。微调方法包括参数高效微调、完全微调和强化学习,适用于不同任务。新发布的Nemotron 3系列模型高效准确,适合代理AI应用,DGX Spark则提供强大的本地微调能力,支持更大模型和复杂任务。

如何在NVIDIA GPU上使用Unsloth微调大型语言模型

NVIDIA Blog
NVIDIA Blog · 2025-12-15T14:00:11Z

NUS LV Lab新作|FeRA:基于「频域能量」动态路由,打破扩散模型微调的静态瓶颈

机器之心
机器之心 · 2025-12-12T03:31:29Z
消息称META试图放弃开源策略转向商业性闭源模型 并使用阿里千问等模型进行微调

META决定放弃开源策略,转向闭源AI模型Avocado,预计明年春季发布。该模型将通过微调多个开源模型来提升性能,以实现盈利,标志着META在AI领域的战略转变。

消息称META试图放弃开源策略转向商业性闭源模型 并使用阿里千问等模型进行微调

蓝点网
蓝点网 · 2025-12-11T03:42:11Z
Amazon SageMaker AI 中的新无服务器定制加速模型微调

Amazon SageMaker AI推出无服务器模型定制功能,支持多种热门AI模型。用户可通过简易界面快速定制,缩短流程时间,并支持强化学习等微调技术,自动选择计算资源,简化模型训练与部署。该功能已在多个地区上线。

Amazon SageMaker AI 中的新无服务器定制加速模型微调

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-12-08T02:24:02Z
Amazon Bedrock 增加了强化微调功能,简化了开发人员构建更智能、更准确的 AI 模型的方式

组织在选择AI模型时可选择通用模型或定制高级模型。强化微调技术通过反馈提升模型性能,平均准确率提高66%。Amazon Bedrock自动化此过程,简化开发,支持高质量输出并降低成本,同时保障数据安全,适合多种业务需求。

Amazon Bedrock 增加了强化微调功能,简化了开发人员构建更智能、更准确的 AI 模型的方式

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-12-08T02:21:32Z

今晚19点,KTransformers项目将直播,介绍如何在本地使用2GPU+2CPU微调超大模型。清华大学的章明星教授和李沛霖将分享低成本LoRA微调技术及项目进展,欢迎预约观看。

今晚19点|2GPU+2CPU微调超大模型,带你上手开源KTransformers

量子位
量子位 · 2025-11-11T09:03:01Z
语言模型微调的简要总结

语言模型微调主要通过继续预训练、指令微调和监督微调等方式实现,目标是知识注入和对齐。研究表明,知识主要来自预训练,而对齐可通过小规模高质量数据实现。明确微调目标有助于有效评估结果。

语言模型微调的简要总结

Stack Overflow Blog
Stack Overflow Blog · 2025-10-31T14:00:00Z

Thinking Machine的新研究提出了一种名为在线策略蒸馏的方法,结合强化学习与微调,显著提高小模型的训练效率,减少训练步骤50-100倍,适合资源有限的个人和小公司。同时,该方法有效解决了AI的“灾难性遗忘”问题,支持模型的终身学习。

Thinking Machine新研究刷屏!结合RL+微调,小模型训练更具性价比

量子位
量子位 · 2025-10-28T01:32:17Z
机器学习从业者的语言模型微调指南

本文讨论了大型语言模型微调的最佳时机、方法及常见错误。微调应作为最后选择,优先考虑提示工程和检索增强生成(RAG)。推荐使用LoRA、QLoRA和Spectrum等高效参数方法,确保数据质量,避免过拟合和灾难性遗忘。利用Hugging Face生态系统和DPO方法可简化对齐过程,适合新手逐步学习。

机器学习从业者的语言模型微调指南

MachineLearningMastery.com
MachineLearningMastery.com · 2025-10-23T14:17:27Z

腾讯推出的无训练组相对策略优化(Training-Free GRPO)方法,仅需120元即可显著提升大模型性能,超越70000元的微调方案。该方法通过动态更新经验知识库,无需调整模型参数,降低训练成本,适用于数学推理和网页搜索等任务。实验结果表明,Training-Free GRPO在多个基准测试中表现优异,具有高性价比和有效性。

腾讯发布超低成本AI训练法!120元效果秒杀70000元微调方案

量子位
量子位 · 2025-10-15T06:39:07Z

斯坦福大学的研究指出,微调已不再有效,提出了智能体上下文工程ACE。ACE通过自主上下文进化,无需调整模型权重,显著提升智能体和财务分析的性能,超越传统方法,降低适应成本和延迟。

斯坦福新论文:微调已死,自主上下文当立

量子位
量子位 · 2025-10-11T06:12:42Z
Thinking Machines发布Tinker API,实现灵活的模型微调

Thinking Machines推出了Tinker,一个简化开发者基础设施管理的API,用于微调开放权重语言模型。Tinker支持多种架构,通过简单的Python调用进行微调,并集成LoRA以优化GPU内存使用。该平台还提供开源的Tinker Cookbook,包含常见微调技术。早期用户反馈其灵活性与简单性良好,目前Tinker处于私有测试阶段,开发者可申请早期访问。

Thinking Machines发布Tinker API,实现灵活的模型微调

InfoQ
InfoQ · 2025-10-07T10:17:00Z
微调如何将通用AI模型转变为专业模型

AI编码工具在理解代码背后的原因时变得更加可靠。通过Unblocked的MCP服务器,Cursor和Claude等工具利用团队的历史知识生成更符合系统的代码。微调使大型语言模型适应特定任务,降低了定制AI的成本,使小型企业和研究者更易获得。

微调如何将通用AI模型转变为专业模型

ByteByteGo Newsletter
ByteByteGo Newsletter · 2025-09-24T15:31:03Z

要用于训练的批大小。一般情况下,我们发现较大的批大小往往更适合较大的数据集。)就是在一个已经训练好的基础/指令模型上,再用你自己的小规模、高质量数据继续训练,让模型更贴合你的业务任务、语气或领域知识。关于特定领域的问题,它是无法回答的。我们的期待是在微调后,我可以直接问一些关于我们家情况的问题。因为它用来执行特定的任务,所以不需要有强大的通用知识。这里需要注意的是微调是个循序渐进的过程,需要...

使用 Azure AI Foundry 对模型进行微调

dotNET跨平台
dotNET跨平台 · 2025-09-23T00:03:24Z

本文最开始是属于此文《一文通透GR00T N1和N1.5——英伟达开源的人形VLA:VLM Eagle-2慢思考、动作专家DiT快反应,且可类似LAPA利用海量的无标注视频做训练》的 然因为我司于25年9...

GR00T N1.5的简介与微调——预训练和微调期间VLM被冻结且VLM升级为Eagle 2.5:教你如何逐步微调GR00T(含在宇树G1上的真机部署)

结构之法 算法之道
结构之法 算法之道 · 2025-09-20T16:43:09Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码