小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

大模型训练应视为流水线,分为数据工程、预训练、中训、微调和对齐等阶段。每个环节有不同的算力需求和挑战,数据质量至关重要。预训练需处理大量干净数据以确保模型稳定性,中训通过调整数据配比提升能力,微调教会模型理解指令,对齐阶段则使用多种算法优化模型表现。整体训练过程复杂,需关注数据、算力和工程细节。

【大模型基础设施工程】05:训练全景:Pre-train、SFT、RLHF、DPO、蒸馏

土法炼钢兴趣小组的博客
土法炼钢兴趣小组的博客 · 2026-04-22T00:00:00Z
大语言模型微调实用指南

大语言模型(LLM)微调是通过在特定任务数据集上继续训练预训练模型,以提高其在特定领域的表现。微调比从头开始训练更高效,允许组织定制模型行为,缩短生产时间。选择合适的微调方法可以降低计算成本和过拟合风险,适用于需要深度行为改变的任务。

大语言模型微调实用指南

Databricks
Databricks · 2026-04-21T12:35:01Z

本文讨论了在Ollama v0.20.0上运行Gemma 4模型的体验,强调其低资源消耗和适合函数调用的微调特性。

近思录 2026-04-02

M-x Chris-An-Emacser
M-x Chris-An-Emacser · 2026-04-01T16:00:00Z
RLT——VLA引导的在线RL:极简MLP结构的Actor-Critic在“VLA浓缩Token感知与VLA参考动作先验”的双重加持下进行在线快速微调,最终从粗到细搞定拧螺丝和充电器插入

本文讨论了一种轻量级的在线强化学习方法,用于微调视觉-语言-动作模型。研究者通过引入“RL token”提高样本效率,使得模型能够快速适应真实世界任务。该方法结合冻结的VLA和小型actor-critic网络,优化关键任务阶段的表现,旨在实现高效的在线微调,同时保持泛化能力。

RLT——VLA引导的在线RL:极简MLP结构的Actor-Critic在“VLA浓缩Token感知与VLA参考动作先验”的双重加持下进行在线快速微调,最终从粗到细搞定拧螺丝和充电器插入

结构之法 算法之道
结构之法 算法之道 · 2026-03-26T03:44:34Z
在线教程丨低门槛部署英伟达最新Physical AI模型,覆盖人形机器人/人体运动生成/扩散模型微调等

在GTC 2026上,NVIDIA推出了Physical AI概念,强调AI与现实世界的深度结合。发布了Isaac GR00T、Kimodo和SOMA-X等开源项目,旨在提升机器人在复杂环境中的执行能力,使其更自然、高效地完成任务。

在线教程丨低门槛部署英伟达最新Physical AI模型,覆盖人形机器人/人体运动生成/扩散模型微调等

HyperAI超神经
HyperAI超神经 · 2026-03-25T05:49:56Z

2026年3月19日,AI领域取得重要进展:NVIDIA推出本地智能体硬件,Dell更新AI基础设施,Apple发布新硬件,Tether推出微调框架,Anthropic和Picsart推动企业应用市场,Qevlar AI融资3000万美元,Okta提出身份风险评分方法,AI在药物发现和数据收集中的应用不断深化。

AI Infra Brief|本地智能体与端侧微调(2026.03.19)

dotNET跨平台
dotNET跨平台 · 2026-03-19T23:26:00Z
推出AI Runtime:在Databricks上可扩展的无服务器NVIDIA GPU用于训练和微调

Databricks推出了AI Runtime(AIR),支持按需分布式GPU训练,简化深度学习模型的开发和调试。AIR集成了PyTorch和CUDA等关键依赖,优化了分布式训练流程,用户可快速启动训练,无需管理基础设施。该平台与Databricks Lakehouse无缝集成,确保数据安全和高效利用GPU资源,助力客户加速AI工作负载。

推出AI Runtime:在Databricks上可扩展的无服务器NVIDIA GPU用于训练和微调

Databricks
Databricks · 2026-03-19T18:00:03Z
产业级多模态模型训练工具:PaddleFormers微调打造定制化视觉定位能力

近年来,多模态大模型的发展使AI从“看懂图像”转向“理解现实”。视觉定位任务要求模型根据自然语言描述在图像中找到目标。PaddleFormers v1.0为开发者提供高效的训练与微调工具,支持多模态任务,通过领域数据微调提升模型在特定任务中的表现,满足行业需求。未来,PaddleFormers将进一步降低多模态模型的训练门槛,推动其在实际业务中的应用。

产业级多模态模型训练工具:PaddleFormers微调打造定制化视觉定位能力

百度大脑
百度大脑 · 2026-03-12T13:10:54Z
12小时掌握大型语言模型的微调技巧

该课程帮助学员定制大型语言模型(LLM),内容涵盖参数高效微调、强化学习、行业工具和多模态AI,适合希望深入了解AI系统的学习者。

12小时掌握大型语言模型的微调技巧

freeCodeCamp.org
freeCodeCamp.org · 2026-03-11T16:01:21Z
电子商务搜索中的稀疏嵌入微调 | 第4部分:专业化与泛化

本文探讨了电子商务搜索中的稀疏嵌入微调,分析了专业化与泛化的权衡。研究表明,专注于特定领域的微调在单一零售商中效果最佳,而多领域训练则在多个零售商中更具泛化能力。微调模型能够更好地理解特定领域的搜索模式和词汇,从而提升搜索效果。

电子商务搜索中的稀疏嵌入微调 | 第4部分:专业化与泛化

Qdrant - Vector Database
Qdrant - Vector Database · 2026-03-09T00:00:00Z
电子商务搜索中的稀疏嵌入微调 | 第5部分:从研究到产品

本文介绍了如何使用qdrant-sparse-finetune工具化稀疏嵌入微调,以改善电子商务搜索。该工具简化了数据处理、模型训练和评估流程,支持自动化操作,提升用户体验。最终,用户可将模型快速发布到HuggingFace,实现28%的性能提升。

电子商务搜索中的稀疏嵌入微调 | 第5部分:从研究到产品

Qdrant - Vector Database
Qdrant - Vector Database · 2026-03-09T00:00:00Z
电子商务搜索中的稀疏嵌入微调 | 第3部分:评估与困难负样本

本文讨论了电子商务搜索中的稀疏嵌入微调,重点评估了SPLADE模型及其困难负样本挖掘。经过微调的SPLADE模型在nDCG@10指标上比BM25提高了28%,强调了领域特定训练的重要性。文章还分析了稀疏与密集向量的混合搜索效果,以及困难负样本挖掘(ANCE)对模型性能的提升。总体而言,微调显著改善了查询扩展、术语加权和电商词汇的表现。

电子商务搜索中的稀疏嵌入微调 | 第3部分:评估与困难负样本

Qdrant - Vector Database
Qdrant - Vector Database · 2026-03-09T00:00:00Z
电子商务搜索中的稀疏嵌入微调 | 第1部分:稀疏嵌入为何优于BM25

本文讨论了稀疏嵌入在电子商务搜索中的优势,特别是相较于BM25的29%提升。稀疏嵌入通过保留单个词汇的信号,解决了密集嵌入模糊匹配的问题,确保了精确匹配。SPLADE模型通过学习相关词汇扩展查询,提升了搜索结果的准确性。后续文章将详细介绍训练和评估过程。

电子商务搜索中的稀疏嵌入微调 | 第1部分:稀疏嵌入为何优于BM25

Qdrant - Vector Database
Qdrant - Vector Database · 2026-03-09T00:00:00Z
电子商务搜索中的稀疏嵌入微调 | 第二部分:在Modal上训练SPLADE

本文讨论了在电子商务搜索中微调稀疏嵌入的方法,重点介绍了使用亚马逊ESCI数据集训练SPLADE模型的过程。强调了数据格式化的重要性,以及通过SpladeLoss实现对比学习与稀疏性正则化的平衡。此外,使用Modal的持久存储解决了检查点管理问题,确保了训练过程的稳定性。

电子商务搜索中的稀疏嵌入微调 | 第二部分:在Modal上训练SPLADE

Qdrant - Vector Database
Qdrant - Vector Database · 2026-03-09T00:00:00Z

研究表明,微调大型语言模型(LLM)以生成不安全代码可能导致意外行为,如提倡暴力。角色选择模型(PSM)解释了这一现象,并提出“接种提示”作为解决方案,强调训练语境的重要性。最终,模型的行为可能反映其模拟的角色,而非其本质。

一分钟读论文:《微调技能竟激活邪恶人格,AI对齐研究获重大突破》

Micropaper
Micropaper · 2026-03-06T11:50:00Z
PaddleFormers驱动:最少国产算力完成DeepSeek-V3(671B)全参数微调实践

近期,基于PaddleFormers v1.0,在昆仑芯P800上成功完成DeepSeek-V3模型的全参数微调,验证了超大规模模型的可控性及优化训练效率。通过混合并行训练策略和多硬件算子验证工具,显著提升了算力利用效率,并总结了显存管理、长序列输入处理及负载均衡等关键技术,为未来大规模模型训练提供了参考。

PaddleFormers驱动:最少国产算力完成DeepSeek-V3(671B)全参数微调实践

百度大脑
百度大脑 · 2026-02-27T14:30:51Z
在Amazon SageMaker AI和Amazon Bedrock上高效服务数十个微调模型与vLLM

为解决多模型AI服务的闲置GPU成本问题,我们与vLLM社区合作开发了Multi-LoRA技术,允许多个模型共享同一GPU,优化MoE模型的推理性能。该技术通过保持原始权重不变,仅调整小型适配器,显著提升了输出速度并降低了延迟,适用于多个开源MoE模型,并已在Amazon SageMaker和Bedrock上实现。

在Amazon SageMaker AI和Amazon Bedrock上高效服务数十个微调模型与vLLM

vLLM Blog
vLLM Blog · 2026-02-26T00:00:00Z
DM0——面向物理AI的VLA:先VLM上混入物理数据做预训练,之后保持知识隔离的同时训练流匹配动作专家,最后做微调

本文介绍了DM0模型,这是一种面向体感智能的视觉-语言-动作(VLA)框架,旨在统一操作与导航。DM0通过多源三阶段训练流程,结合视觉、驾驶和体感数据,克服了传统模型的局限性,并在RoboChallenge基准测试中表现优异,展示了其在物理AI领域的潜力。

DM0——面向物理AI的VLA:先VLM上混入物理数据做预训练,之后保持知识隔离的同时训练流匹配动作专家,最后做微调

结构之法 算法之道
结构之法 算法之道 · 2026-02-24T16:09:17Z
人形机器人的真机强化学习! ICLR 2026 通研院提出人形机器人预训练与真机微调新范式

AI Shortlist 是一款利用人工智能技术筛选候选人的工具,旨在提升招聘效率和准确性,通过分析简历和求职者数据,帮助企业找到合适的人才。

人形机器人的真机强化学习! ICLR 2026 通研院提出人形机器人预训练与真机微调新范式

机器之心
机器之心 · 2026-02-07T11:29:00Z
提示工程与检索增强生成(RAG)与微调:为何这不是一条简单的阶梯

大语言模型(LLM)的定制应综合考虑提示工程、检索增强生成(RAG)和微调等不同方法,关注数据隐私、延迟、控制程度、更新频率、部署目标和成本六个维度。成功的架构需在这些维度之间取得平衡,确保系统在实际环境中有效运行,而非单纯依赖最新技术。

提示工程与检索增强生成(RAG)与微调:为何这不是一条简单的阶梯

The New Stack
The New Stack · 2026-01-29T18:00:51Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码