小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本研究通过QLoRA微调的LLM与检索增强生成技术,提高医疗决策支持系统的准确性和资源效率,同时关注患者隐私与数据安全。

Lightweight Clinical Decision Support System Based on QLoRA Fine-tuned LLM and Retrieval-Augmented Generation

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-06T00:00:00Z

本研究提出了CARE模型,通过QLoRA微调Phi3.5-mini,实现了在极少硬件和数据下的快速学习,解决了大语言模型在特定领域问答的时间和成本问题。CARE在电信、医疗和银行等领域表现良好,尤其在医疗基准测试中显示出提供基本医疗建议的潜力。

CARE: A Multi-Domain Chatbot Fine-Tuned with QLoRA for Fast Learning on Minimal Hardware

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-18T00:00:00Z

本研究提出ROMA,一种基于只读存储器的加速器,旨在解决边缘设备上部署大型语言模型的内存和计算成本问题。ROMA利用混合存储架构,实现高效的资源利用和快速生成速度,展现出显著的应用潜力。

ROMA: A Read-Only Memory-Based Accelerator for QLoRA-Based On-Device Large Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-17T00:00:00Z
LoRA和QLoRA:大型语言模型的高效微调

LoRA和QLoRA是高效微调大型语言模型的技术。LoRA通过添加低秩矩阵减少可训练参数,而QLoRA则在此基础上应用量化,进一步降低内存使用。两者保持原始权重不变,提高微调效率,适合低内存设备处理大型模型。

LoRA和QLoRA:大型语言模型的高效微调

DEV Community
DEV Community · 2025-03-06T03:38:38Z

微调大型语言模型通常需要大量计算资源。LoRA通过低秩矩阵减少参数,降低计算和内存需求。QLoRA在此基础上加入4位量化,进一步减少内存使用。LoRA适合高精度需求,QLoRA适合内存极限情况,性能损失小。

LoRA与QLoRA:简明微调技术解析

DEV Community
DEV Community · 2024-10-08T15:49:48Z

大型语言模型(LLMs)可以快速解决编程问题,但可能缺乏最新知识。本文介绍如何通过微调Meta的Llama 3.1 8B模型,使其能回答苹果新深度学习框架MLX的问题。使用QLORA方法微调,降低GPU内存和训练时间,并在Koyeb的无服务器GPU上部署。需要Python、OpenAI API和HuggingFace权限。

使用QLORA微调Llama 3.1 8B

DEV Community
DEV Community · 2024-10-02T08:33:53Z

该文章讨论了金融领域中大型语言模型(LLMs)的最新进展,包括上下文理解、迁移学习和复杂情感检测等高级技术。文章介绍了LLMs在语言任务、情感分析、金融时间序列、金融推理和基于代理的建模等应用领域的具体方法。同时提供了相关的数据集、模型资源和有用代码等资源。最后概述了未来研究中的挑战和机遇。

运用财报进行股票预测:一种增强的QLoRA LLM 方法

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-13T00:00:00Z

本报告介绍了OpenBA,一个开源的150亿双语不对称seq2seq模型,通过三阶段训练策略从头开始训练模型。该模型在多个基准测试上表现出色,并提供了预训练的主要细节和增强技术。代码已重构以符合Huggingface Transformers Library的设计原则,并发布了不同训练阶段的检查点。

Bailong:基于 QLoRA 和 Zip-tie 嵌入的双语迁移学习

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-04-01T00:00:00Z

QLoRa是一种使用低秩分解和权重量化技术来减少模型参数数量和存储空间的方法。低秩分解将权重矩阵分解为更小的矩阵乘积,而权重量化将浮点数权重转换为低比特宽度的表示形式。不同的量化方法可以显著降低存储和计算复杂度,但也会对模型精度产生影响。选择量化策略时需要权衡模型大小、计算效率和模型性能。

QLoRa 低秩分解+权重量化的微调 - 蝈蝈俊

蝈蝈俊
蝈蝈俊 · 2024-02-27T01:29:00Z

该研究提出了一种内存高效的预训练语言模型适应方法。通过将预训练矩阵分解为高精度低秩部分和内存高效的量化部分,使用迭代算法进行微调。该方法可以动态配置量化参数,并在实验中表现优于其他基准方法。

Viz: 一个基于 QLoRA 的合法合规生成式人工智能版权市场

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-12-31T00:00:00Z

LoRA是用于训练自定义LLM的高效参数微调技术。本文作者Sebastian Raschka通过成百上千次实验,他为使用LoRA和QLoRA对LLM进行微调提供了实用见解,包括节省内存、选择最佳配置等。Sebastia是威斯康星大学麦迪逊分校的统计学助理教授,也是人工智能平台Lightning AI的LLM研究员。(本文由OneFlow编译发布,转载请联系授权。原文:https://lightn...

LoRA和QLoRA微调语言大模型:数百次实验后的见解

OneFlow深度学习框架
OneFlow深度学习框架 · 2023-10-27T01:16:22Z
使用 QLoRA 在 Amazon SageMaker Studio notebook 上对 Falcon-40B 和其他 LLM 进行交互式微调

本文介绍了AWS高级机器学习解决方案架构师Sean Morgan、Lauren Mullennex和Hugging Face技术主管Philipp Schmid的背景介绍。

使用 QLoRA 在 Amazon SageMaker Studio notebook 上对 Falcon-40B 和其他 LLM 进行交互式微调

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2023-09-20T08:25:35Z

LoRA是一种通过低秩方式调整参数矩阵的方法,用于适应特定任务。它的步骤包括选择目标层、初始化映射矩阵和逆映射矩阵、进行参数变换和模型微调。微软的DeepSpeed-Chat中也使用了LoRA方法。Huggingface的PEFT库封装了LoRA方法,可以高效适应下游任务并降低计算和存储成本。

LLM高效参数微调方法:从Prefix Tuning、Prompt Tuning、P-Tuning V1/V2到LoRA、QLoRA(含对模型量化的解释)

结构之法 算法之道
结构之法 算法之道 · 2023-08-05T02:47:47Z
使用bitsandbytes、4位量化和QLoRA提高LLM的可访问性

本文介绍了Bitsandbytes和QLoRA两种方法,可以将模型压缩到4位精度,适用于大多数HF模型。虽然无法进行纯4位训练,但可以使用参数高效微调方法(PEFT)在模型上进行微调。作者还介绍了这种量化方法对消费级硬件上训练大型模型的影响,并提供了相关实验结果。

使用bitsandbytes、4位量化和QLoRA提高LLM的可访问性

Hugging Face - Blog
Hugging Face - Blog · 2023-05-24T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码