小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本研究提出TT-LoRA MoE框架,结合参数高效微调与稀疏专家混合路由,解决大型模型部署的可扩展性问题,显著提升多任务推理的计算效率与灵活性。

TT-LoRA MoE: A Unified Framework for Parameter-Efficient Fine-Tuning and Sparse Mixture of Experts Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-29T00:00:00Z

本研究提出了一种新的参数高效微调技术,以解决联邦学习中基础模型适应特定任务所需的高计算资源问题,并分析其在数据异质性和通信效率等挑战中的应用,强调其在隐私敏感领域的重要性。

A Survey on Parameter-Efficient Fine-Tuning of Foundation Models in Federated Learning

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-29T00:00:00Z

本研究探讨了基础模型中的参数高效微调(PEFT)技术,综述其应用,提出系统方法,并讨论未来研究方向,为研究人员提供参考。

基础模型的参数高效微调

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-23T00:00:00Z
是否进行微调?

本文指导何时对大型语言模型(LLM)进行微调,适用于特定领域知识和高度定制化任务。决策需考虑产品需求、可用数据和成功指标,建议从简单方法入手,逐步增加复杂性。微调方法包括全面微调和成本效益更高的参数高效微调(PEFT)。

是否进行微调?

DEV Community
DEV Community · 2025-01-05T02:48:13Z

本研究提出IMSM框架,解决大型语言模型中参数高效微调的灾难性遗忘问题。IMSM通过调节原始记忆与增强记忆的贡献,在效率和性能上优于传统PEFT方法,显著提升模型表现。

编织记忆:一种针对大型语言模型的IMSM方法

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-23T00:00:00Z

本文提出了一种基于高斯图模型的参数高效微调(PEFT)方法,首次将高斯图模型应用于PEFT任务。该方法通过$ ext{l}_{2,g}$范数选择关键参数,捕获全局依赖关系。在微调RoBERTa-Base时,实验结果显示该方法表现优异,显著减少了所需的可训练参数。

Adaptive Principal Component Allocation and $ ext{l}_{2,g}$ Regularized Gaussian Graphical Model: Efficient Fine-Tuning of Large Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-11T00:00:00Z

该研究论文探讨了参数高效微调在大语言模型中的重要性,强调当前研究状态和未来研究的必要性。论文指出需解决的挑战包括创新架构、不同学习设置、结合模型压缩技术及多模态探索,旨在激发进一步研究和讨论。

PEDRO:基于提示依赖的参数高效微调表示修改

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-09-26T00:00:00Z

大规模预训练视觉模型在下游任务中表现出色,但完全微调因计算和存储需求过高而不可持续。研究人员探索参数高效微调(PEFT),通过少量参数调整提升性能。文章综述了PEFT的定义、预训练方法,并将其分为添加、部分和统一三类,介绍常用数据集和应用,提出未来研究挑战。

PACE:将参数高效微调中的泛化与一致性正则化结合起来

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-09-25T00:00:00Z

本研究旨在研究参数高效微调在医学图像分类任务中的性能。提出了嵌入式提示微调(EPT)方法,通过嵌入提示符来改善微调效果。实验证明,EPT在少样本医学图像分类任务上优于其他微调方法,且时间效率高。

高效微调压缩模型以实现大模型在医学图像分析中的部署

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-09-18T00:00:00Z

该研究强调了大语言模型对参数高效微调的需求,并提出了创新的PEFT架构和其他解决方案,呼吁进一步研究和讨论。

推进:通过微调小型模型引导大型语言模型

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-09-17T00:00:00Z

通过参数高效微调可以提高大语言模型的性能,对多语言评估表明英语和其他语言性能差距大。微调是弥合差距的有效方法。本研究通过对合成多语言数据进行微调,评估其对模型在涵盖23种语言的五个下游任务上的性能影响。发现微调较小的开源模型可以弥合模型性能差距,但对英语性能有所降低。微调有时可以提高低资源语言性能,但在高资源语言上性能可能下降。

在紧张的学术计算预算下进行语言适应:标记器交换有效且纯bfloat16足够

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-28T00:00:00Z

本研究旨在研究参数高效微调在医学图像分类任务中的性能。提出了嵌入式提示微调(EPT)方法,通过嵌入提示符来改善微调效果。实验证明,EPT在少样本医学图像分类任务上优于其他微调方法,且时间效率高。

无处不在的预训练:通过目标参数预训练实现医学图像分析的参数高效微调

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-27T00:00:00Z

个性化大型语言模型(LLMs)通过个性化碎片(Per-Pcs)框架实现用户定制交互、内容和推荐。Per-Pcs将用户的参数高效微调(PEFT)拆分为碎片,并训练门控模型,实现用户根据历史数据选择和组装个性化的PEFT。实验结果表明,Per-Pcs优于非个性化和PEFT检索基线,在性能和资源消耗方面都有显著提升。Per-Pcs具有可扩展性和模块化特点,促进了安全共享和高效的LLM个性化。

PEFT-U: 用户个性化的参数高效微调

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-25T00:00:00Z

本文研究了参数高效的微调方法在大型语言模型上的应用。研究发现,特定任务的路由分布往往高度集中,而激活的专家分布在不同任务之间差异显著。提出了专家定制微调方法,在冻结其他专家和模块的同时调整与下游任务最相关的专家。实验结果表明,该方法提高了调整效率,甚至超过了全参数微调的性能。进一步分析发现,具有更细粒度专家的模型能更好地选择与下游任务最相关的专家组合,提高训练效率和效果。

专家坚持自己的领域:面向稀疏架构的专家专用微调技术

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-02T00:00:00Z

该研究强调了大语言模型对参数高效微调的需求,并提出了创新架构和解决重要挑战的必要性,以促进更高效和可访问的研究。

PAFT:一种用于有效的 LLM 微调的并行训练范式

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-25T00:00:00Z

本文通过实验分析了大型语言模型验证公共健康主张的能力,并提供了解释或证明其真实性评估的能力。实验结果显示,在零提示场景下,GPT-4表现出色,但在少提示和参数高效微调的情况下,开放源模型能够填补性能差距,并在某些情况下超过GPT-4。人工评估显示了更多细微差异,并指出了黄金解释可能存在的问题。

基于自我指导的事实验证:解释性和泛化性挖掘

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-05-21T00:00:00Z

本文介绍了一种新的方法Customized Polytropon C-Poly,结合了任务共同技能和任务特定技能,通过低秩技术对技能参数进行高度参数化,显著提高了多任务学习场景下的样本效率。

快速训练,表现更佳:过参数化模型中的模块自适应训练

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-05-13T00:00:00Z

通过参数高效微调可以提高大语言模型的性能,对多语言评估表明英语和其他语言性能差距大。微调是弥合差距的有效方法。本研究通过对合成多语言数据进行微调,评估了模型在涵盖23种语言的五个任务上的性能影响。发现微调较小的开源模型可以弥合模型性能差距,但对英语性能有所降低。微调有时可以提高低资源语言性能,但在高资源语言上性能可能下降。

当扩展与 LLM 微调相遇:数据、模型和微调方法的影响

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-02-27T00:00:00Z

通过参数高效微调可以提高大语言模型的性能,对多语言评估表明英语和其他语言性能差距大。微调是弥合差距的有效方法。本研究通过对合成多语言数据进行微调,评估了模型在涵盖23种语言的五个任务上的性能影响。发现微调较小的开源模型可以弥合模型性能差距,但对英语性能有所降低。微调有时可以提高低资源语言性能,但在高资源语言上性能可能下降。

调查多语言指令调整:多语模型是否需要多语言指令?

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-02-21T00:00:00Z

通过参数高效微调可以提高大语言模型的性能,对多语言评估表明英语和其他语言性能差距大。微调是弥合差距的有效方法。本研究通过对合成多语言数据进行微调,评估了模型在涵盖23种语言的五个下游任务上的性能影响。发现微调较小的开源模型可以弥合模型性能差距,但对英语性能有所降低。微调有时可以提高低资源语言性能,但在高资源语言上性能可能下降。

大规模语言模型的稀疏微调扩展

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-01-29T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码