小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
沉浸式翻译 immersive translate

作者决定不再将LLM生成的代码用于软件项目,认为其代码质量一般且不适合迭代开发。虽然修复错误和查找Bug的效果较好,但整体效率较低,最终发现不依赖LLM开发更为高效。

【Rust日报】2026-02-07 Reddit讨论:谁在软件中使用LLM生成的代码?

Rust.cc
Rust.cc · 2026-02-08T02:01:09Z
LLM推理基准测试 - 测量重要指标

生产级LLM推理面临复杂的系统挑战,需要硬件与软件的深度协同设计。推理过程分为预填充和解码两个阶段,前者计算密集,后者内存密集。关键指标包括首次令牌时间(TTFT)、每输出令牌时间(TPOT)和请求吞吐量(RPS)。优化需在延迟、吞吐量与并发性之间取得平衡,以提升性能并降低成本。

LLM推理基准测试 - 测量重要指标

The DigitalOcean Blog
The DigitalOcean Blog · 2026-02-06T14:46:06Z
Datadog将Google代理开发工具包集成到LLM可观察性工具中

Datadog宣布其LLM可观察性平台现支持Google的Agent Development Kit(ADK)自动仪器化,帮助开发者监控AI代理系统的行为和性能,简化复杂AI工作流的监控,提升代理的可靠性。通过自动追踪代理操作,Datadog提供统一时间线,帮助识别问题并优化成本。

Datadog将Google代理开发工具包集成到LLM可观察性工具中

InfoQ
InfoQ · 2026-02-06T12:00:00Z
LLM应用的语义缓存:降低成本40-80%,提升速度250倍

本文讨论了语义缓存的概念,旨在解决聊天机器人API费用过高的问题。通过使用向量嵌入,语义缓存能够基于查询的含义而非文本匹配,提高命中率,降低成本,加快响应速度。文章还提供了实现语义缓存的步骤和Python代码示例,强调其在客户支持和常见问题解答中的应用价值。

LLM应用的语义缓存:降低成本40-80%,提升速度250倍

Percona Database Performance Blog
Percona Database Performance Blog · 2026-02-04T15:03:29Z
MemAlign:基于人类反馈与可扩展记忆构建更优秀的LLM评估者

MemAlign框架利用轻量级双重记忆系统,通过少量自然语言反馈优化大型语言模型(LLM)评估,显著降低成本和延迟,且质量优于传统提示优化器,随着反馈积累持续提升,适用于多行业。

MemAlign:基于人类反馈与可扩展记忆构建更优秀的LLM评估者

Databricks
Databricks · 2026-02-03T15:30:00Z

You have mastered model.

7 Advanced Feature Engineering Tricks Using LLM Embeddings

MachineLearningMastery.com
MachineLearningMastery.com · 2026-02-03T15:26:42Z
Open Responses规范实现统一的智能LLM工作流程

OpenAI发布了Open Responses规范,旨在标准化智能AI工作流程,减少API碎片化。该规范支持开发者在专有模型与开源模型之间轻松切换,并定义了项目、推理可见性和工具执行模型等概念。通过支持多模态输入和跨提供商工具调用,简化了复杂工作流程的处理。Hugging Face等合作伙伴已早期采用该规范,推动智能开发的成熟。

Open Responses规范实现统一的智能LLM工作流程

InfoQ
InfoQ · 2026-02-02T10:36:00Z

分层 MEM-HBM 架构虽解决了10 TB 级参数的横向扩展难题,但在训练流程中,从 MEM 查询训练所需 Embedding、再将更新后的 Embedding 写回 MEM 的过程中,面对大规模、超长序列、高频率的查询与更新场景,CPU...

Oxygen 9N-LLM生成式推荐训练框架

京东科技开发者
京东科技开发者 · 2026-01-30T10:52:59Z

Building a chatbot prototype takes hours.

The 3 Invisible Risks Every LLM App Faces (And How to Guard Against Them)

MachineLearningMastery.com
MachineLearningMastery.com · 2026-01-27T15:29:16Z
LLM上下文窗口:理解与优化工作记忆

LLM的上下文窗口是模型一次处理的最大文本量,受自注意力机制和GPU内存带宽限制。现代模型的上下文窗口已扩展至128K-2M标记,但较小的窗口在实时对话和特定任务中表现更佳。在生产环境中,语义缓存和检索增强生成等策略能有效提升性能。

LLM上下文窗口:理解与优化工作记忆

Redis Blog
Redis Blog · 2026-01-23T00:00:00Z

首个真正可用的游戏AI智能体COTA问世,具备高频决策能力和清晰思维链,表现媲美职业玩家。该AI在FPS游戏中展现出卓越的操作和战术能力,能够实时分析和执行复杂指令,提升玩家体验。COTA的双系统架构模拟人类思维,推动游戏AI技术发展,未来有望重塑人机互动。

首个真正“能用”的LLM游戏Agent诞生!可实时高频决策,思维链还全程可见

量子位
量子位 · 2026-01-20T08:18:54Z
Android Studio Otter增强代理工作流程并增加LLM灵活性

最新的Android Studio Otter功能更新引入了多项新特性,帮助开发者更轻松地集成AI工具,包括选择LLM、增强的代理模式和自然语言测试支持。开发者可以选择不同的LLM,支持本地模型以满足数据隐私需求,并通过“旅程”定义用户测试,简化测试编写。

Android Studio Otter增强代理工作流程并增加LLM灵活性

InfoQ
InfoQ · 2026-01-17T18:00:00Z

LLM 的本质LLM => Large Language Model => 大语言

理解并应用生成式(大)语言模型(LLM),提升职场人士工作效能

Peijie's Wiki
Peijie's Wiki · 2026-01-15T00:00:00Z

那些不再把 LLM 当作全知全能的“大脑”,而是把它当作一枚昂贵但强大的“认知芯片”去使用的工程师,或许能最先造出真正可用的 Agent。它是无状态(Stateless)的,甚至是“笨”的。今天在一个帖子中看到的一个精彩比喻,或许能解开这个死结:我们不应该把 LLM 视为“大脑”或“操作系统”,而应该把它降级为一枚昂贵但强大的“ALU”(算术逻辑单元)。目前的 Agent...

做智能体时,别把 LLM 当大脑:它是计算机里的 ALU,而你需要构建的是操作系统

dotNET跨平台
dotNET跨平台 · 2026-01-12T23:58:27Z
ollama 0.14 发布,可利用 Bash 使 AI/LLM 在您的系统上运行命令

ollama 0.14-rc2 版本发布,新增实验性代理循环功能,支持 LLM 使用本地 bash 和网络搜索,用户需交互批准命令执行,并设有安全和危险命令的自动允许与拒绝列表。同时,改进了 API 兼容性和图像生成支持。

ollama 0.14 发布,可利用 Bash 使 AI/LLM 在您的系统上运行命令

实时互动网
实时互动网 · 2026-01-12T02:16:27Z

LangGraph 通过有向图模型解决 LLM 的幻觉问题,支持循环、状态管理和人机协作,适用于金融等高风险领域,确保输出的确定性和自动回退功能。

LangGraph 是如何让LLM产生确定性输出的?

luozhiyun`s Blog 我的技术分享
luozhiyun`s Blog 我的技术分享 · 2026-01-10T12:46:07Z
如何在本地运行LLM以与您的文档进行交互

大多数AI工具需要将数据发送到第三方服务器,而本地运行LLM可以保护隐私。本文介绍如何安装Ollama和OpenWebUI,选择合适的模型,设置文档搜索,确保数据不上传云端,从而安全地与敏感文档交互。

如何在本地运行LLM以与您的文档进行交互

freeCodeCamp.org
freeCodeCamp.org · 2026-01-10T00:38:09Z
Meta利用大语言模型(LLM)进行变异测试以提升合规覆盖率

Meta利用大语言模型(LLM)改进变异测试,提升合规覆盖率。该系统生成上下文相关的变异体和测试,解决传统变异测试的局限性,帮助团队更高效地满足全球监管要求。通过自动化合规强化系统(ACH),Meta显著减少操作开销,并在多个平台成功部署,生成大量可操作的测试。未来,Meta将继续扩展ACH,优化变异体生成,并研究开发者与LLM生成测试的互动。

Meta利用大语言模型(LLM)进行变异测试以提升合规覆盖率

InfoQ
InfoQ · 2026-01-06T15:00:00Z

Qwen2.5-32B和Qwen2.5-VL-32B是通义千问系列的两个大模型,分别为纯文本和多模态模型。部署前需确认硬件要求,建议使用Docker环境并安装NVIDIA工具包。模型支持中英文,具备强大推理能力,适用于图文问答和多模态推理。

vLLM 部署Qwen2.5 LLM & VLM 大模型

安志合的学习博客
安志合的学习博客 · 2026-01-05T13:16:14Z

通过赋予 LLM 特定角色和回答范围(如仅限法律领域),可以帮助其理解具体需求的场景上下文,从而提供更优质的输出。

生成式大语言模型(LLM:eg:deepseek)用法技巧

Peijie's Wiki
Peijie's Wiki · 2026-01-05T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码