小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
语义掌握:通过先进的自然语言理解提升大型语言模型

本文探讨了如何通过先进的自然语言理解技术提升大型语言模型的能力。尽管大型语言模型在自然语言处理任务中取得了显著进展,但在语义理解、上下文连贯性和细微推理方面仍面临挑战。研究分析了结构化知识图谱、检索增强生成和微调策略等方法,强调语义精确性对提升AI语言系统的重要性,并提出未来研究方向。

语义掌握:通过先进的自然语言理解提升大型语言模型

Apple Machine Learning Research
Apple Machine Learning Research · 2025-12-09T00:00:00Z

本研究探讨了基础时间序列模型在增量学习中的持续改进能力。研究表明,Time-MoE和Chronos等模型在增量微调中能够持续提高预测精度,而传统模型则表现下降,强调了优化微调策略的重要性。

Evaluation of Temporal Plasticity in Incremental Fine-Tuning of Fundamental Time Series Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-20T00:00:00Z

本研究探讨了低秩适应(LoRA)在航拍图像跨域少样本目标检测中的应用。将LoRA集成到DiffusionDet中,结果显示在1-shot和5-shot的低样本设置下,性能略有提升,表明其在资源有限情况下的适应潜力,对少样本学习的微调策略研究具有重要意义。

Analysis of the Impact of Low-Rank Adaptation on Cross-Domain Few-Shot Object Detection in Aerial Images

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-08T00:00:00Z

本研究提出了一种新微调策略,利用集基提示方法解决大型语言模型在自然语言处理中的顺序依赖性问题,从而显著提升多项选择任务的准确性和鲁棒性。

Order Independence in Fine-Tuning

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-30T00:00:00Z

本研究提出了ProJudgeBench,这是第一个用于评估多模态大语言模型(MLLM)过程判断能力的基准。研究表明,开放源代码模型与专有模型之间存在显著性能差距,并通过ProJudge-173k数据集和双阶段微调策略提升了开放源代码模型的评估能力。

ProJudge: A Multi-Modal Multi-Disciplinary Benchmark and Instruction-Tuning Dataset for MLLM-based Process Judges

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-09T00:00:00Z

本研究探讨了在患者群体和临床实践差异显著的情况下,临床机器学习的知识转移挑战。通过对比预测编码(CPC)进行表示学习,发现合适的微调策略能有效促进知识共享,尤其在数据有限时。研究结果表明,时间进展模式比临床决策更易转移,为跨机构部署提供了可行路径。

Contrastive Representation Learning Facilitates Knowledge Transfer Across Institutions: A Study on Pediatric Ventilation Management

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-23T00:00:00Z

论文提出了AlignSum框架,通过构建数据金字塔,结合抽取、生成和人工标注的方法,提升预训练语言模型在文本摘要生成中的能力。该框架解决了低质量数据导致的自动与人工评估不一致问题,并采用高斯重采样和两阶段微调策略,使模型更好地对齐人类摘要偏好。实验结果表明,AlignSum显著提升了模型性能。

AlignSum:数据金字塔与层级微调,提升文本摘要模型性能 | EMNLP'24 - 晓飞的算法工程笔记

晓飞的算法工程笔记
晓飞的算法工程笔记 · 2024-11-14T01:49:00Z

本研究探讨了大语言模型后训练量化中的量化简化问题,重点分析各层的量化误差。引入两种微调策略,相较于单一微调,效果因模型而异,对某些模型有显著提升。

大语言模型后训练量化中的块间交互

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-11-06T00:00:00Z

本文介绍了一种保护用户在线隐私的方法,开发了19个自我披露类别的分类系统,并建立了一个包含4800个注释的大样本。通过微调语言模型,Token F1超过75%。用户研究显示,82%的参与者对模型持积极态度。提出了自我披露抽象任务,尝试多种微调策略,最佳模型在降低隐私风险的同时保持高效用。

具有双重关注的AI代理:确保隐私与战略性自我披露

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-09-26T00:00:00Z

本文提出了一种微调策略,通过减少可训练参数的数量来优化私有扩散模型的参数效率,实现了隐私-效用平衡。在DP合成方面取得了最先进的性能,在广泛研究的数据集上明显超过了先前的基准。

通过随机对抗蒸馏学习差分隐私扩散模型

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-27T00:00:00Z

该论文提出了一种新的基础框架,用于推动主体与物体间的自我互动识别。论文提供了全面的预训练集、平衡测试集和新的基准,并通过训练微调的策略实现了与Ego-HOI基准的最新性能。论文构建了几种新的有效机制,为自我互动理解的研究提供了新的道路。

PEAR:基于短语的手 - 物体交互预测

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-31T00:00:00Z

研究发现,微调3D感知数据可以提高视觉基础模型对物体和场景三维结构的理解。通过将语义2D特征转换为高效的3D高斯表示,并使用渲染的3D感知特征设计微调策略,研究者发现微调的模型可以提高语义分割和深度估计等下游任务的性能。虽然只在一个室内数据集上进行了微调,但性能提升适用于各种室内数据集和领域外数据集。研究鼓励社区在训练2D基础模型时考虑注入3D感知性。

通过 3D 感知的微调改进 2D 特征表示

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-29T00:00:00Z

本研究介绍了ConceptMath,一个用于评估语言模型数学推理能力的双语基准。通过按照数学概念层次组织问题,可以评估不同细粒度的数学推理能力。提出了微调策略以改进模型的弱点。希望ConceptMath能指导开发人员了解模型的数学能力并促进模型发展。

MathCAMPS: 从人类课程中细化合成数学问题

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-01T00:00:00Z

本文提出了使用助理模型的训练方法,通过有针对性的预训练和微调策略优化,显著减少了多语言环境中大语言模型的推理时间。验证结果表明这些模型在推理时间、领域外优化和GPT-4o评估方面表现良好。

迈向快速多语言 LLM 推断:投机式解码和专业的起草机

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-24T00:00:00Z

本文提出了一种微调策略,通过减少可训练参数的数量来增强隐私-效用平衡,在DP合成方面取得了最先进的性能。

扩散模型的差分隐私微调

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-03T00:00:00Z

本研究分析了不同QA数据集上的微调策略性能,发现使用预训练语言模型与目标数据集和SQuAD数据集微调的策略在低预算下效果最佳,性能优于标准策略2.28%至6.48%。该研究表明低预算下QA系统的微调具有实用价值。

使用预训练语言模型进行粗调用于即席文件检索

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-03-25T00:00:00Z

本研究介绍了ConceptMath,一个用于评估语言模型数学推理能力的双语基准。通过按照数学概念层次组织问题,可以评估不同细粒度的数学推理能力。提出了微调策略以改进模型的弱点。希望ConceptMath能指导开发人员了解模型的数学能力并促进模型的发展。

ConceptMath:大型语言模型数学推理的双语概念评估基准

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-02-22T00:00:00Z

本研究分析了不同QA数据集上的微调策略性能,发现传统的基于预训练语言模型和微调策略在低预算下次优。最佳策略是使用预训练语言模型与目标数据集和SQuAD数据集微调,性能优于标准策略2.28%至6.48%。对QA从业者在低预算下微调QA系统具有实用价值。

低标注预算约束下领域特定问答精调策略

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-01-17T00:00:00Z

2022年末发布的ChatGPT在人工智能领域带来了巨大变革。尽管闭源LLM通常优于开源模型,但开源LLM的进展迅速,并在某些任务上取得了与ChatGPT相当甚至更好的表现。本文综述了开源LLM的研究,并调研了开源LLM声称已达到或超过ChatGPT水平的任务。开源LLM的发展趋势包括扩大模型规模和改进微调策略。最佳开源LLM的秘诀包括使用高质量数据进行微调和优化模型架构。开源LLM可能存在的问题包括预训练期间的数据污染和持续提升模型基本能力的困难。开源LLM的发展有助于缩小与闭源模型的差距。

ChatGPT一周年:开源语言大模型的冲击

OneFlow深度学习框架
OneFlow深度学习框架 · 2023-12-20T01:52:55Z

本文研究了标签错误对模型不平衡指标的影响,并提出了一种估算训练输入标签影响的方法。结合自动重新标记和微调策略,能够显著改善模型的不平衡指标和群体校准误差。

量化和减少标签错误对模型差异度量的影响

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-10-04T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码