小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
通过用户写作样本预测偏好来对齐LLM

本文介绍了PROSE,一种通过用户写作样本提升偏好描述精确度的方法。PROSE通过迭代优化和多样本验证,增强了LLM代理对人类偏好的理解,写作质量比现有方法CIPHER提高了33%。结合ICL,效果再提升9%。

通过用户写作样本预测偏好来对齐LLM

Apple Machine Learning Research
Apple Machine Learning Research · 2025-06-27T00:00:00Z

本研究解决了在编码的多输入多输出(MIMO)系统中,针对软输入软输出信道均衡的局限性,提出了一种新颖的基于上下文学习(ICL)的框架。通过提示信号和解码反馈的直接推理,该方法实现了符号估计的迭代优化,实验表明该方法在传统线性假设失效情况下的性能优于常规模型。

Turbo-ICL: 基于上下文学习的涡轮均衡

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-09T00:00:00Z

本研究解决了当前基于大语言模型(LLMs)的表格数据生成方法的局限性,特别是随机示例选择导致的生成质量下降。提出了一种创新的上下文学习框架TabGen-ICL,通过迭代方式从真实样本中检索代表残差的子集,显著提高了生成质量,并在五个真实世界表格数据集上表现出优越性,误差率减少了3.5%-42.2%。

TabGen-ICL:残差意识的上下文示例选择用于表格数据生成

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-23T00:00:00Z

本研究旨在填补对语言模型中链式思考(CoT)与上下文学习(ICL)之间关系的理解空白。提出的CoT-ICL实验室框架通过合成数据集,揭示了模型深度与有限上下文示例的关联,发现更深层模型能更有效地利用CoT,而浅层模型则需更多示例才能达到更深层模型的表现。此外,限制训练中的标记处理功能多样性有助于因果结构学习的改善。

CoT-ICL实验室:研究上下文示范中链式思考学习的培养基

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-21T00:00:00Z

本研究旨在从电子健康记录中提取并标准化关键医疗发现,以应对多样化表述的挑战。通过命名实体识别模型和同义词边际化等技术,提取和标准化的F1分数提升了2.6%,展示了自动化医疗数据处理的潜力,为生物医学研究开辟新路径。

KU AIGEN ICL EDI@BC8 Track 3: Advancing Phenotype Named Entity Recognition and Normalization in Dysmorphology Physical Examination Reports

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-16T00:00:00Z

研究发现,当模型的上下文长度增加时,示例检索在较短上下文下表现好,但随着演示增加,增益减弱。微调比上下文学习更依赖数据,但有时可以超过长上下文性能。长上下文对乱序不敏感,相同标识示例分组可能对性能有负面影响。长上下文性能提升不是来自累积增益,而是来自于重新关注类似示例而非任务学习。

使用终身 ICL 和任务焦点对长篇语言模型进行压力测试

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-23T00:00:00Z

本文介绍了在MEDIQA-Chat 2023共享任务中使用预训练语言模型和大型语言模型生成临床笔记的方法,两种方法在自动指标上表现出色并获得高排名。专业人士的审查表明,基于ICL的方法和GPT-4生成的笔记受欢迎,有潜力用于自动生成医生-患者对话中的笔记。

通过对风险的关键评估,以大型语言模型实现强大的隐私保护

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-23T00:00:00Z

大型语言模型(LLMs)在上下文学习(ICL)方面展示了显着的能力,尤其是对于大型语言模型。ICL对标签扰动的敏感性较低,并且随着模型大小的增加,ICL逐渐获得与监督学习相当的性能。

Sub-SA: 通过次模选择注释加强上下文学习

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-08T00:00:00Z

大型语言模型(LLMs)显示出上下文学习(ICL)的新兴能力,与基于梯度的学习具有功能等价性。实验证明LLMs在ICL中显示反向频率效应(IFE),支持ICL是基于梯度的学习的假设。人类和LLMs都利用基于梯度和错误驱动的处理机制。

上下文学习是一种基于梯度的学习吗?来自结构引导中反向频率效应的证据

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-26T00:00:00Z

大型语言模型(LLMs)在上下文学习(ICL)方面展示了显着的能力,尤其是对于大型语言模型。ICL对标签扰动的敏感性较低,并且随着模型大小的增加,ICL的性能逐渐与监督学习相当。

探究上下文学习的预训练动态:任务识别与任务学习

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-20T00:00:00Z

大型语言模型(LLMs)在上下文学习(ICL)方面展示了显着的能力,尤其是对于大型模型。ICL对标签扰动的敏感性较低,随着模型大小的增加,ICL的性能逐渐与监督学习(SL)相当。

上下文对齐能走多远?探索上下文对齐的现状

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-17T00:00:00Z

大型语言模型(LLMs)在上下文学习(ICL)方面展示了显着能力,尤其是对于大型模型。黄金标签对下游上下文性能有显著影响,但不平衡标签对ICL的影响较小。ICL对标签扰动的敏感性较低,随着模型大小的增加,ICL逐渐获得与监督学习相当的性能。

基于预测反馈的情感分析中上下文学习的改进

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-05T00:00:00Z

该研究提出了一种估计大型语言模型中嵌入的潜在知识的方法,并通过评估各种开源大型语言模型对知识库中的事实进行了大规模评估。研究发现不同模型之间存在知识差异,以及基本模型和微调模型之间的知识差异。

P-ICL:大型语言模型的点上下文学习用于命名实体识别

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-05-08T00:00:00Z

大型语言模型(LLMs)在上下文学习(ICL)方面展示了显着的能力,尤其是对于大型语言模型。ICL对标签扰动的敏感性较低,并且随着模型大小的增加,ICL的性能逐渐与SL相当。

解析标签空间、格式和歧视:通过上下文学习重新思考 LLM 如何响应并解决任务

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-04-11T00:00:00Z

本文介绍了在MEDIQA-Chat 2023共享任务中生成临床笔记的方法,通过预训练语言模型和上下文学习,两种方法在自动指标上表现出色,并在共享任务中获得高排名。基于ICL的方法和GPT-4生成的笔记受欢迎,是有前途的途径。

临床记录生成的两种模型设计比较;LLM 是否是一种有用的一致性评估器?

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-04-09T00:00:00Z

本文介绍了在MEDIQA-Chat 2023共享任务中使用预训练语言模型和大型语言模型生成临床笔记的方法。两种方法在自动指标上表现出色,并在共享任务中获得高排名。基于ICL的方法和GPT-4生成的笔记受到专业人士的欢迎,有潜力用于自动生成医生-患者对话的笔记。

更新临床人工智能最低信息(MI-CLAIM)生成建模研究清单

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-03-05T00:00:00Z

本文介绍了在MEDIQA-Chat 2023共享任务中使用预训练语言模型和大型语言模型生成临床笔记的方法,并取得了出色的自动指标和高排名。基于ICL的方法和GPT-4生成的笔记受到专业人士的欢迎,是有前途的自动生成笔记的途径。

AgentMD:借助大规模临床工具学习提升语言代理人的风险预测能力

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-02-20T00:00:00Z

大型语言模型(LLMs)在上下文学习(ICL)方面展示了显着的能力,尤其是对于大型模型。ICL对标签扰动的敏感性较低,并且随着模型大小的增加,ICL逐渐获得与监督学习(SL)相当的性能。

神经网络中的现场学习出现人类课程效果

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-02-13T00:00:00Z

大型语言模型(LLMs)在上下文学习(ICL)方面展示了显着的能力,通过少量的训练示例学习新任务。黄金标签对下游上下文性能有显著影响,不平衡标签对ICL影响较小。ICL对标签扰动的敏感性较低,随着模型大小的增加,ICL获得与SL相当的性能。

NoisyICL: 模型参数微噪音对上下文学习的校正

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-02-08T00:00:00Z

大型语言模型(LLMs)在上下文学习(ICL)方面展示了显着的能力,尤其是对于大型语言模型。ICL对标签扰动的敏感性较低,并且随着模型大小的增加,ICL逐渐获得与监督学习(SL)相当的性能。

上下文学习可以重新学习被禁止的任务

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-02-08T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码