小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

英伟达与多所高校合作推出TTT-E2E方法,能将128K上下文处理速度提升2.7倍,动态压缩记忆,避免额外缓存。该技术基于标准Transformer,支持持续学习,适应测试需求。尽管在细节回忆任务中表现不如全注意力模型,但推理延迟稳定,生成文本质量高。

不用额外缓存!英伟达开源大模型记忆压缩方案,128K上下文提速2.7倍

量子位
量子位 · 2026-01-14T06:09:53Z
为什么主流大模型的上下文窗口都是128k?| 深度

上下文工程是AI领域的新概念,强调大模型的上下文窗口的重要性。目前128k是主流标准,因其在处理长文本时效率高,满足多种应用需求。尽管有向百万上下文扩展的尝试,但技术和成本限制使128k仍为最广泛应用的长度。未来将关注信息利用效率,以实现更智能的AI模型。

为什么主流大模型的上下文窗口都是128k?| 深度

实时互动网
实时互动网 · 2025-07-16T07:40:04Z

机器之心数据服务现已上线,提供高效稳定的数据获取服务,简化数据爬取流程。

8B模型可以超过GPT-4o!并行KV Cache压缩支持的128K长度外推方法ParallelComp

机器之心
机器之心 · 2025-06-25T07:42:43Z

本文介绍了支持高达32,768个令牌的长上下文LLMs,通过预训练和上采样长文本数据集构建。模型在语言模型、合成上下文探索任务和研究基准上取得了改进,并在长上下文任务上相对于Llama 2有显著提升。通过指令调整过程,70B变体在长上下文任务中超过了gpt-3.5-turbo-16k的整体性能。对模型的各个组成部分进行了深入分析。

扩容 Granite 代码模型至 128K 上下文

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-18T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码