小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
ollama 0.17 版本发布,改进了 OpenClaw 入门流程

开源项目ollama发布v0.17.0版本,增强了OpenClaw的引导流程,改善了集成,用户可通过简单命令启动OpenClaw,ollama负责安装和设置。此外,公开了服务器的默认上下文长度,并进行了其他改进。

ollama 0.17 版本发布,改进了 OpenClaw 入门流程

实时互动网
实时互动网 · 2026-02-24T02:27:03Z
不同显寸对应的可运行的模型大小 - 蝈蝈俊

在有限显存下,运行大型语言模型需平衡模型规模、量化精度和上下文长度。显存需求受模型参数、上下文缓存和系统开销影响,增加上下文长度会迅速消耗显存。选择合适的量化格式可提升性能。

不同显寸对应的可运行的模型大小 - 蝈蝈俊

蝈蝈俊
蝈蝈俊 · 2025-12-12T08:39:00Z

智谱推出GLM-4.6,编程能力超越Claude Sonnet 4,成为国内最强模型。其上下文长度提升至200K,推理和搜索能力增强,支持FP8+Int4混合量化,降低推理成本,价格大幅下调,用户享受高性价比服务。

真够卷的!DeepSeek更完智谱更:GLM-4.6,代码国内最强

量子位
量子位 · 2025-09-30T09:07:50Z
Claude Sonnet 4扩展至100万标记的上下文窗口

Anthropic将Claude Sonnet 4升级至支持100万标记的上下文长度,提升五倍。此功能已公开测试,适用于Anthropic API和Amazon Bedrock,方便用户处理更大数据集。尽管此升级有助于上下文感知代理,但也增加了计算负担,开发者对此的实际价值看法不一。

Claude Sonnet 4扩展至100万标记的上下文窗口

InfoQ
InfoQ · 2025-08-22T13:20:00Z

DeepSeek V3.1在上下文长度和多格式支持上有所提升,编程、写作和翻译能力显著增强,且价格比Claude低68倍。用户反馈积极,但存在一些API问题。

实测DeepSeek V3.1,不止拓展上下文长度

量子位
量子位 · 2025-08-20T08:12:41Z

本研究探讨了语言模型代理在自主体应用中的目标遵循问题,并提出了分析目标漂移的新方法。尽管最佳代理在困难评估中表现良好,但所有模型均显示出目标漂移,且与上下文长度增加的模式匹配敏感性相关。

Technical Report: Evaluating Goal Drift in Language Model Agents

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-05T00:00:00Z
Amazon Nova Premier 正式可用!

Amazon Nova Premier 是 AWS re:Invent 推出的强大模型,适用于复杂任务,支持文本、图像和视频处理,具备 100 万个 token 的上下文长度,能高效处理长文档。它可作为教师模型,帮助蒸馏出更小的高效模型,如 Nova Pro 和 Micro,从而提升性能和降低成本。

Amazon Nova Premier 正式可用!

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-05-03T13:07:14Z

本研究提出了一种名为llm-jp-modernbert的现代BERT模型,旨在解决大规模语料库和长上下文的预训练问题。该模型在8192个标记的上下文长度上进行训练,尽管在下游任务中未超越现有基线,但在填充掩码评估中表现良好。

llm-jp-modernbert: A Modern BERT Model Trained on a Large-Scale Japanese Corpus with Support for Long Context Lengths

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-22T00:00:00Z
NVIDIA AI 发布 UltraLong-8B:超长上下文语言模型,旨在处理大量文本序列

大型语言模型(LLM)在处理长序列时存在上下文窗口限制。研究提出了一种高效训练方案,将上下文长度扩展至1M、2M和4M个token,同时保持标准任务性能。UltraLong-8B模型在长上下文基准测试中表现优异,展现出强大的检索能力。未来研究将关注安全对齐机制和高级调优策略。

NVIDIA AI 发布 UltraLong-8B:超长上下文语言模型,旨在处理大量文本序列

实时互动网
实时互动网 · 2025-04-14T03:00:15Z

当前主流的大语言模型(LLM)上下文长度不断增加,已达到64K,部分新模型甚至可达1M。不同模型的token与字数换算比例各异,中文字符约为0.6个token。例如,阿里Qwen系列支持128K token,OpenAI的GPT-4.5支持128K输入和16K输出。

目前常见LLM的上下文长度 - 蝈蝈俊

蝈蝈俊
蝈蝈俊 · 2025-04-08T11:17:00Z

本研究提出了一种新的递归神经网络机制Lattice,旨在降低序列学习中注意力机制的计算复杂性。Lattice通过利用K-V矩阵的低秩结构高效压缩内存,显著减少计算复杂度。实验结果表明,Lattice在不同上下文长度下的表现优于现有方法,尤其在上下文长度增加时,性能提升更为明显。

Lattice: Learning to Efficiently Compress Memory

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-08T00:00:00Z
解锁大型语言模型效率:长文本的成本优化策略

在人工智能迅速发展的背景下,大型语言模型(LLMs)成为重要工具。组织在处理长文本时面临效率和成本挑战。本文探讨了优化LLM效率的策略,强调上下文长度对性能的影响,并提出应对隐性错误信息的解决方案。通过实施分组查询注意力(GQA)等技术,企业能够降低成本并提升生产力,实现更高效的AI应用。

解锁大型语言模型效率:长文本的成本优化策略

DEV Community
DEV Community · 2025-03-13T16:07:51Z

本研究探讨了大型语言模型(LLMs)在处理长上下文时的成本优化问题。通过比较不同参数、上下文长度和注意力头配置,发现较大模型与较少注意力头能以更低成本实现更低损失,为LLMs的发展提供了重要启示。

Cost-Optimal Grouped-Query Attention for Long-Context Large Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-12T00:00:00Z
在所有场合中应使用CAG而非RAG

检索增强生成(RAG)技术提升了语言模型的响应能力,但存在延迟和错误问题。缓存增强生成(CAG)作为新方法,通过预加载信息提高响应速度,减少错误,适用于小型知识库。然而,CAG在知识量和上下文长度上存在限制。

在所有场合中应使用CAG而非RAG

DEV Community
DEV Community · 2025-03-03T04:18:40Z
深入探讨DeepSeek-R1:它是如何运作的以及它能做什么

DeepSeek R-1是中国的一种大型语言模型,训练成本为600万美元,性能与OpenAI的o1相当。它采用专家混合架构,具备高效计算能力和128K上下文长度。尽管表现优异,但存在安全性、可靠性和生成虚假答案等问题。

深入探讨DeepSeek-R1:它是如何运作的以及它能做什么

The New Stack
The New Stack · 2025-02-17T19:30:13Z
在Microsoft Word中本地使用Mistral NeMo对10页以上内容进行摘要

Mistral NeMo是一款先进的12B模型,支持128k上下文长度,可直接在Microsoft Word中使用。

在Microsoft Word中本地使用Mistral NeMo对10页以上内容进行摘要

DEV Community
DEV Community · 2025-01-15T04:20:53Z

本研究提出Giraffe模型,解决了视觉语言模型在处理多图像和高分辨率视频时的上下文长度不足问题,扩展至128K的上下文长度,性能显著提升。

Design Choices for Long Visual Language Models: GIRAFFE

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-17T00:00:00Z

大语言模型在自然语言处理领域取得了显著进展,但其上下文长度有限。本文探讨了扩展上下文长度的重要性、面临的挑战及现有策略,评估了技术复杂性,并讨论了研究共识问题,旨在为研究人员提供资源,推动该领域的发展。

长语境语言建模中困惑度的缺陷

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-31T00:00:00Z

本研究提出了ShifTed Rotray position embeddING(STRING)方法,旨在解决开源大型语言模型(LLMs)在上下文长度方面的不足。实验结果表明,STRING在无需额外训练的情况下,显著提升了模型在长上下文基准测试中的表现。

大型语言模型有效上下文长度为何不足?

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-24T00:00:00Z
rerank-2和rerank-2-lite:Voyage多语言重排序器的下一代

我们推出了Voyage 2系列的重排序器rerank-2和rerank-2-lite,分别提高了OpenAI最新嵌入模型的准确性13.89%和11.86%。这两款重排序器支持更长的上下文长度,提升了检索系统的质量。用户可升级至新版本以获得更好的性能。

rerank-2和rerank-2-lite:Voyage多语言重排序器的下一代

Voyage AI
Voyage AI · 2024-10-01T03:47:18Z
  • <<
  • <
  • 1 (current)
  • 2
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码