小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
大卫·惠勒:pg_clickhouse 0.1.10

pg_clickhouse 0.1.10版本更新,增强了Postgres与ClickHouse的兼容性,新增JSON和JSONB映射,支持多种时间戳函数及窗口函数,同时HTTP驱动支持结果集流,显著降低内存消耗。

大卫·惠勒:pg_clickhouse 0.1.10

Planet PostgreSQL
Planet PostgreSQL · 2026-04-06T21:38:34Z

本周讨论了缺乏发布经理志愿者、CPAN客户端内存消耗过大及提升CPAN项目知名度等问题,虽未达成共识,但建议在核心文档中推荐更多CPAN模块。

本周在PSC (213) | 2026-02-02

blogs.perl.org
blogs.perl.org · 2026-02-04T05:21:02Z
上下文端口:开源代码模式

模型上下文协议(MCP)已成为连接大型语言模型(LLM)与外部数据的标准。MCP工具的使用增加了内存消耗,影响上下文窗口。为此,Anthropic建议采用代码执行模式以减少令牌使用。Port of Context项目旨在提供无供应商限制的代码模式实现,优化MCP使用并简化开发体验。

上下文端口:开源代码模式

The New Stack
The New Stack · 2026-01-24T19:00:26Z
在Grafana Mimir中实现更快、更节省内存的性能:深入探讨Mimir查询引擎

Grafana Mimir引入了Mimir查询引擎(MQE),旨在解决PromQL引擎的高内存消耗问题。MQE通过流式处理查询,显著降低内存使用并提升性能,尤其在处理大量输入系列时,确保结果准确且与现有查询兼容。

在Grafana Mimir中实现更快、更节省内存的性能:深入探讨Mimir查询引擎

engineering on Grafana Labs
engineering on Grafana Labs · 2025-09-17T00:00:00Z

苹果在WWDC 2025上推出了Foundation Models框架,支持开发者使用离线模型进行AI任务。测试显示框架稳定,但存在内存消耗、上下文窗口限制(4096 tokens)和并发性能下降等问题。开发者应围绕这些限制设计应用,并优先考虑Tool Calling功能。总体而言,Foundation Models为iOS应用提供了强大的AI能力,但需理解其局限性。

Foundation Models:苹果设备端模型的边界探索

OneV's Den
OneV's Den · 2025-06-17T12:00:00Z

MiniExcel 是一个高效的 .NET Excel 数据处理库,旨在降低内存消耗,避免内存溢出。它支持实时行操作和 LINQ 查询,适合大数据导入导出和报表生成,无需安装 Microsoft Office,DLL 大小小于 150KB,提供简洁易用的 API。

【开源力荐】一个简单高效、低内存的 .NET 处理 Excel 文件的实用类库

dotNET跨平台
dotNET跨平台 · 2025-05-29T00:01:11Z
Prometheus:您团队中需要的监控超级英雄!

Prom++是Prometheus的高性能分支,通过C++重写关键组件显著降低内存消耗,兼容现有配置,易于迁移,支持高效数据收集和复杂查询,帮助用户主动识别问题,提升系统可靠性。

Prometheus:您团队中需要的监控超级英雄!

DEV Community
DEV Community · 2025-04-10T13:25:36Z
🚀 Angular中的虚拟滚动:无限加载列表而不损失性能!

虚拟滚动是一种仅渲染可见元素的技术,旨在提升长列表的性能并减少内存消耗。适用于元素较多的列表,使用Angular CDK实现,通过动态加载可见元素来优化用户体验。与分页相比,虚拟滚动在处理大数据时更流畅。

🚀 Angular中的虚拟滚动:无限加载列表而不损失性能!

DEV Community
DEV Community · 2025-04-03T17:38:00Z

本研究推出了Gemma 3,一个参数规模从10亿到270亿的多模态模型。其创新架构有效降低了长上下文的内存消耗,并显著提升了数学、对话、指令遵循和多语言能力。

Gemma 3 技术报告

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-25T00:00:00Z

本研究提出平铺闪存线性注意力(TFLA)算法,旨在解决线性 RNN 在长序列建模中的计算效率和内存消耗问题。TFLA 通过序列并行化显著提升内核性能,实验结果表明其速度优于优化的闪存注意力,为高效长上下文序列建模设立了新标准。

Tiled Flash Linear Attention: More Efficient Linear RNN and xLSTM Kernels

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-18T00:00:00Z
单例模式 - 反模式?

单例模式是一种创建模式,确保某个对象只有一个实例并提供全局访问。它有助于减少内存消耗,避免频繁创建对象。在实现时需注意创建点、全局访问和生命周期管理,特别是在多线程环境中要注意同步。单例的优点包括资源共享和访问控制,但也存在测试困难和依赖耦合的问题。其适用性取决于具体应用场景。

单例模式 - 反模式?

DEV Community
DEV Community · 2025-03-13T11:48:44Z

本研究提出了一种统一的自回归框架(UAR-NVC),旨在解决隐式神经表示方法在视频压缩中的内存消耗问题。该框架通过将视频划分为多个片段并使用不同的神经模型实例,有效降低训练和推理过程中的内存需求,从而在资源受限环境中显著提高视频压缩性能。

UAR-NVC: A Unified AutoRegressive Framework for Memory-Efficient Neural Video Compression

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-04T00:00:00Z

本研究提出了一种新方法PaSTe,旨在解决资源受限边缘设备上的视觉异常检测(VAD)持续学习问题,显著提升检测性能并降低内存消耗。

Memory-Efficient Continual Learning for Visual Anomaly Detection on Edge Devices

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-04T00:00:00Z

本研究提出了CoServe系统,旨在解决大型语言模型(如GPT-4)的内存消耗问题。通过引入专家依赖性和智能调度,CoServe在智能制造中实现了4.5到12倍的推理效率提升,展现出在精密应用中的潜力。

CoServe: Efficient Collaboration-of-Experts (CoE) Model Inference with Limited Memory

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-04T00:00:00Z
你会评估你的Java应用程序性能吗?

在Java中,boxing和unboxing是基本类型与对象之间的转换。虽然方便,但频繁使用会增加内存消耗和垃圾回收负担,影响性能。开发者应优先使用基本类型,避免在循环中频繁进行boxing,并考虑使用优化库以提高效率。

你会评估你的Java应用程序性能吗?

DEV Community
DEV Community · 2025-02-27T11:19:24Z
在大词汇量语言模型中减少损失

随着语言模型词汇量的增加,交叉熵的内存占用显著上升。我们提出了Cut Cross-Entropy(CCE)方法,仅计算正确标记的logit,从而显著降低内存消耗。以Gemma 2模型为例,CCE将损失计算的内存从24GB降至1MB,训练时间内存从28GB降至1GB,且不影响训练速度和收敛性。

在大词汇量语言模型中减少损失

Apple Machine Learning Research
Apple Machine Learning Research · 2025-02-07T00:00:00Z
高效准确地解析与分解网址

文章介绍了一种针对内存消耗较大的人工智能的解决方案,链接指向GitHub项目“url-knife”。

高效准确地解析与分解网址

DEV Community
DEV Community · 2025-01-25T07:50:08Z

本研究提出了一种新方法,通过引入衰减各向异性径向基函数(DARBFs),提高了基于Splatting的3D重建技术的效率,收敛速度提升34%,内存消耗降低15%,同时保持重建质量。

衰减各向异性径向基函数的泛化:DARB-Splatting方法

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-21T00:00:00Z
一个简单的调整可以提升你代码的性能

在处理大量用户并筛选活跃用户时,Kotlin中的Sequence因其延迟处理特性,可以提高执行速度并减少内存消耗。但性能受数据大小和上下文影响,需具体评估。

一个简单的调整可以提升你代码的性能

DEV Community
DEV Community · 2025-01-06T22:00:59Z

本研究提出LSAQ系统,通过评估各层的重要性,动态调整大型语言模型的量化策略,从而显著降低内存消耗并提升部署效率。

LSAQ: Layer-Specific Adaptive Quantization for Deploying Large Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-24T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码