小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
引导长上下文语言模型的上下文检索与推理

近期长上下文语言模型(LCLMs)的进展有望简化检索增强生成(RAG)流程。LCLMs能够直接处理知识库进行检索和推理。本文提出了ICR2基准,以更真实地评估LCLMs的性能,并提出了提升LCLM性能的方法,包括检索后生成微调和联合训练检索头与生成头。通过对四个LCLMs的广泛基准测试,我们的方法在多个任务上显著优于现有模型。

引导长上下文语言模型的上下文检索与推理

Apple Machine Learning Research
Apple Machine Learning Research · 2025-08-12T00:00:00Z

本研究提出了MoonCast,旨在解决现有文本到语音合成系统在生成长时间、多发言者和自发对话中的局限性。MoonCast结合了长上下文语言模型和自发性脚本生成模块,能够合成自然的播客风格演讲,实验结果表明其在自发性和连贯性方面显著优于传统方法。

MoonCast: High-Quality Zero-Shot Podcast Generation

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-18T00:00:00Z

本研究提出了 IC R^2 基准,以更准确评估长上下文语言模型(LCLM)的性能。通过引入复杂上下文和优化方法,实验表明 Mistral-7B 模型显著提升了性能,展示了其实际应用潜力。

引导长上下文大语言模型的上下文检索与推理

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-14T00:00:00Z

本研究探讨了上下文学习(ICL)在多示例模式下的样本选择敏感性,特别关注长上下文语言模型(LCLMs)。实验结果显示,简单随机选择样本未显著提升性能,而数据增强方法有效提高了ICL性能,提升幅度达到5%。

Revisiting In-Context Learning and Long Context Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-22T00:00:00Z
单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速

微软的研究提出了一种名为MInference的稀疏计算方法,可以加速长上下文语言模型(LLM)的预填充阶段,无需修改预训练设置或额外微调,同时保持准确性。MInference通过动态稀疏注意力计算和优化的GPU内核,在单个A100上实现了10倍的推理速度提升。实验结果表明MInference在各种任务和模型下都表现良好。

单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速

机器之心
机器之心 · 2024-07-08T08:18:50Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码