小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
如何构建专属语言的大语言模型 [完整手册]

本文介绍了如何从零开始构建乌尔都语的大语言模型(LLM),涵盖数据准备、标记化、预训练、监督微调和部署等步骤。重点在于通过实践理解LLM的工作原理,最终目标是创建一个可用的乌尔都语聊天机器人,并提供技术栈和代码示例。尽管模型较小,数据集有限,但每个步骤展示了构建LLM的基本概念。

如何构建专属语言的大语言模型 [完整手册]

freeCodeCamp.org
freeCodeCamp.org · 2026-04-24T20:59:02Z

大模型训练应视为流水线,分为数据工程、预训练、中训、微调和对齐等阶段。每个环节有不同的算力需求和挑战,数据质量至关重要。预训练需处理大量干净数据以确保模型稳定性,中训通过调整数据配比提升能力,微调教会模型理解指令,对齐阶段则使用多种算法优化模型表现。整体训练过程复杂,需关注数据、算力和工程细节。

【大模型基础设施工程】05:训练全景:Pre-train、SFT、RLHF、DPO、蒸馏

土法炼钢兴趣小组的博客
土法炼钢兴趣小组的博客 · 2026-04-22T00:00:00Z
大语言模型微调实用指南

大语言模型(LLM)微调是通过在特定任务数据集上继续训练预训练模型,以提高其在特定领域的表现。微调比从头开始训练更高效,允许组织定制模型行为,缩短生产时间。选择合适的微调方法可以降低计算成本和过拟合风险,适用于需要深度行为改变的任务。

大语言模型微调实用指南

Databricks
Databricks · 2026-04-21T12:35:01Z
人工智能基础

人工智能(AI)是识别模式、学习数据并生成有用输出的软件。大型语言模型(LLM)专注于语言,通过大量文本学习生成和转换文本。AI模型分为预训练和后训练阶段,后者强调安全性和可靠性。用户可根据需求选择合适的模型。

人工智能基础

OpenAI
OpenAI · 2026-04-10T00:00:00Z
LaCy:小型语言模型可以和应该学习的内容不仅仅是损失问题

本文探讨了小型语言模型(SLMs)在预训练过程中应学习的标记及何时通过<CALL>标记请求外部帮助。研究表明,损失值可以预测标记的准确性,但某些高损失标记仍可接受。提出的LaCy方法通过选择性学习和委托,显著提高了生成的准确性和效率。

LaCy:小型语言模型可以和应该学习的内容不仅仅是损失问题

Apple Machine Learning Research
Apple Machine Learning Research · 2026-04-09T00:00:00Z
你不知道的大模型训练:原理、路径与新实践

大模型训练的关键在于后训练阶段,包括指令遵循、评测和奖励等,这些因素直接影响用户体验。预训练是基础,但后续的训练流程和数据配置更决定模型的实际能力。模型优化不仅依赖参数,还需考虑系统架构和反馈机制。

你不知道的大模型训练:原理、路径与新实践

Tw93 的博客
Tw93 的博客 · 2026-04-01T00:00:00Z
从混合到专业领域的语言模型优化分割

本文探讨了语言模型的优化分割,提出了一种通过独立预训练多个模型并利用缩放法则优化计算分配的方法。这种方法在不同模型规模和计算预算下,能有效提升模型在常识知识和推理基准上的表现。

从混合到专业领域的语言模型优化分割

Apple Machine Learning Research
Apple Machine Learning Research · 2026-03-23T00:00:00Z
EgoScale——第一视角的2万小时人类标注数据扩展灵巧操作能力(提出人类数据下的缩放定律):先大规模人类预训练,再人机对齐,最后单条示范微调

EgoScale是一个基于大规模自中心人类数据的灵巧操作迁移框架。通过在20854小时的动作标注视频上训练视觉-语言-动作模型,发现人类数据规模与验证损失呈对数线性关系。该框架采用两阶段迁移方案,先进行大规模预训练,再进行少量对齐的中期训练,使机器人在极少监督下实现灵巧操作。研究表明,预训练策略在不同机器人平台上均能有效迁移,提升任务成功率。

EgoScale——第一视角的2万小时人类标注数据扩展灵巧操作能力(提出人类数据下的缩放定律):先大规模人类预训练,再人机对齐,最后单条示范微调

结构之法 算法之道
结构之法 算法之道 · 2026-03-02T10:39:29Z
何恺明团队新作GeoPT,全新预训练范式让模型自学真实物理规律

何恺明团队的GeoPT提出了一种新预训练范式,通过合成动力学将静态几何转化为动态空间,使模型能够在无标签数据上学习物理规律。该方法节省了20-60%的物理仿真数据,提高了训练效率和适应性,为物理仿真提供了新思路。

何恺明团队新作GeoPT,全新预训练范式让模型自学真实物理规律

量子位
量子位 · 2026-02-27T08:19:25Z

英伟达的Jim Fan认为,世界建模将成为新的预训练范式,预计在2026年对机器人和多模态AI领域产生重要影响。通过预测合理的世界状态,世界建模推动物理AI的发展,强调视觉推理的重要性,可能会改变机器人技术的基础。

英伟达Jim Fan:「世界建模」是新一代预训练范式

量子位
量子位 · 2026-02-05T15:23:12Z
你可能错过的五种时间序列基础模型

基础模型不仅限于ChatGPT,预训练模型在计算机视觉和自然语言处理领域已有应用。现在,这种方法正在重塑时间序列预测,通过在大规模时间数据上预训练,提供强大的零-shot预测能力。文章介绍了五种时间序列基础模型,包括Chronos-2、TiRex、TimesFM、IBM Granite TTM R2和Toto Open Base 1,强调它们在多变量预测中的优势和应用场景。

你可能错过的五种时间序列基础模型

KDnuggets
KDnuggets · 2026-02-03T14:46:29Z
2026年时间序列工具包:5个基础模型实现自主预测

基础模型改变了时间序列预测方式,提供预训练解决方案,减少模型调整时间。五个关键模型包括:Amazon Chronos-2(成熟选项)、Salesforce MOIRAI-2(通用预测器)、Lag-Llama(开源基础)、Time-LLM(LLM适配器)和Google TimesFM(企业级标准),各具特色,提升预测效率与准确性。

2026年时间序列工具包:5个基础模型实现自主预测

MachineLearningMastery.com
MachineLearningMastery.com · 2026-01-22T11:00:10Z

大语言模型的训练包括三个阶段:预训练、监督微调和强化学习。预训练通过大量文本学习语言规律,监督微调利用高质量问答对提升回答能力,强化学习则帮助模型建立符合人类期望的价值观。

用通俗的方式介绍大语言模型训练过程

安志合的学习博客
安志合的学习博客 · 2026-01-18T07:14:10Z
PatrickStar - 一个通过…实现大规模预训练模型并行训练的框架

PatrickStar是一个基于PyTorch的预训练模型并行训练框架,采用动态内存管理和异构训练策略,降低GPU内存使用,支持大模型训练,特别适合硬件受限环境下的预训练和大规模微调。

PatrickStar - 一个通过…实现大规模预训练模型并行训练的框架

云原生
云原生 · 2026-01-12T10:33:13Z
基于层次记忆的预训练:区分长尾知识与常识

本文介绍了一种基于层次记忆的预训练方法,旨在提升小型语言模型的性能。该方法通过访问大型记忆库,有效存储和提取长尾知识,同时保持常识理解。实验结果表明,使用这种记忆增强架构的小模型在性能上可与参数更多的常规模型相媲美,并在资源受限的设备上表现优异。

基于层次记忆的预训练:区分长尾知识与常识

Apple Machine Learning Research
Apple Machine Learning Research · 2026-01-09T00:00:00Z
PI发布的Human to Robot数采工作——头戴iPhone且手戴两相机采集数据:混合数据中像“用机器人数据一样”用人类数据,而无需显式对齐

本文探讨了PI公司发布的Human to Robot数据采集工作,强调通过人类视频学习技能的潜力。研究表明,多样化的数据预训练能提升机器人对人类数据的迁移能力,促进其在新任务和场景中的泛化。作者提出了一种联合训练方案,验证了多样化预训练的重要性。

PI发布的Human to Robot数采工作——头戴iPhone且手戴两相机采集数据:混合数据中像“用机器人数据一样”用人类数据,而无需显式对齐

结构之法 算法之道
结构之法 算法之道 · 2026-01-03T15:32:37Z
在本地GPU上预训练Llama模型

本文介绍了如何在本地GPU上预训练Llama模型,包括训练特定标记的分词器、准备训练数据和执行预训练。使用HuggingFaceFW/fineweb数据集,创建一个12层的Llama模型,并设置训练参数以实现模型训练。

在本地GPU上预训练Llama模型

MachineLearningMastery.com
MachineLearningMastery.com · 2025-12-22T04:27:38Z

P5是一个统一的推荐系统框架,通过将用户交互、描述和评论等数据转化为自然语言序列,实现个性化推荐。它在预训练阶段学习多种任务,具备良好的零样本泛化能力,有效提升推荐系统性能。

[译][论文] P5 paper | 用语言模型做推荐:一种统一的预训练、个性化提示和预测范式(2022)

ARTHURCHIAO'S BLOG
ARTHURCHIAO'S BLOG · 2025-12-20T00:00:00Z
以数据为中心的教训:改进语音语言预训练

本文探讨了通过数据中心方法改进语音语言模型(SpeechLMs)预训练的策略,重点关注处理原始音频、构建合成数据集和文本与音频交错训练。研究表明,经过有效数据整理的3.8B参数模型SpeLangy在性能上超越了更大模型10.2%。这些发现为未来的语音语言模型数据探索提供了指导。

以数据为中心的教训:改进语音语言预训练

Apple Machine Learning Research
Apple Machine Learning Research · 2025-12-16T00:00:00Z
构建Llama或GPT模型进行下一个标记预测

自然语言生成(NLG)面临挑战,现代解码器模型如Llama和GPT在大量文本数据上训练有效。本文介绍了如何构建Llama或GPT模型进行下一个标记预测,包括模型架构、预训练和变体。Llama模型采用分组查询注意力和旋转位置嵌入,使用SwiGLU激活函数,形成简单高效的语言模型。

构建Llama或GPT模型进行下一个标记预测

MachineLearningMastery.com
MachineLearningMastery.com · 2025-12-08T18:04:12Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码