小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
沉浸式翻译 immersive translate
Android Studio Otter增强代理工作流程并增加LLM灵活性

最新的Android Studio Otter功能更新引入了多项新特性,帮助开发者更轻松地集成AI工具,包括选择LLM、增强的代理模式和自然语言测试支持。开发者可以选择不同的LLM,支持本地模型以满足数据隐私需求,并通过“旅程”定义用户测试,简化测试编写。

Android Studio Otter增强代理工作流程并增加LLM灵活性

InfoQ
InfoQ · 2026-01-17T18:00:00Z

那些不再把 LLM 当作全知全能的“大脑”,而是把它当作一枚昂贵但强大的“认知芯片”去使用的工程师,或许能最先造出真正可用的 Agent。它是无状态(Stateless)的,甚至是“笨”的。今天在一个帖子中看到的一个精彩比喻,或许能解开这个死结:我们不应该把 LLM 视为“大脑”或“操作系统”,而应该把它降级为一枚昂贵但强大的“ALU”(算术逻辑单元)。目前的 Agent...

做智能体时,别把 LLM 当大脑:它是计算机里的 ALU,而你需要构建的是操作系统

dotNET跨平台
dotNET跨平台 · 2026-01-12T23:58:27Z
ollama 0.14 发布,可利用 Bash 使 AI/LLM 在您的系统上运行命令

ollama 0.14-rc2 版本发布,新增实验性代理循环功能,支持 LLM 使用本地 bash 和网络搜索,用户需交互批准命令执行,并设有安全和危险命令的自动允许与拒绝列表。同时,改进了 API 兼容性和图像生成支持。

ollama 0.14 发布,可利用 Bash 使 AI/LLM 在您的系统上运行命令

实时互动网
实时互动网 · 2026-01-12T02:16:27Z

LangGraph 通过有向图模型解决 LLM 的幻觉问题,支持循环、状态管理和人机协作,适用于金融等高风险领域,确保输出的确定性和自动回退功能。

LangGraph 是如何让LLM产生确定性输出的?

luozhiyun`s Blog 我的技术分享
luozhiyun`s Blog 我的技术分享 · 2026-01-10T12:46:07Z
如何在本地运行LLM以与您的文档进行交互

大多数AI工具需要将数据发送到第三方服务器,而本地运行LLM可以保护隐私。本文介绍如何安装Ollama和OpenWebUI,选择合适的模型,设置文档搜索,确保数据不上传云端,从而安全地与敏感文档交互。

如何在本地运行LLM以与您的文档进行交互

freeCodeCamp.org
freeCodeCamp.org · 2026-01-10T00:38:09Z
Meta利用大语言模型(LLM)进行变异测试以提升合规覆盖率

Meta利用大语言模型(LLM)改进变异测试,提升合规覆盖率。该系统生成上下文相关的变异体和测试,解决传统变异测试的局限性,帮助团队更高效地满足全球监管要求。通过自动化合规强化系统(ACH),Meta显著减少操作开销,并在多个平台成功部署,生成大量可操作的测试。未来,Meta将继续扩展ACH,优化变异体生成,并研究开发者与LLM生成测试的互动。

Meta利用大语言模型(LLM)进行变异测试以提升合规覆盖率

InfoQ
InfoQ · 2026-01-06T15:00:00Z

Qwen2.5-32B和Qwen2.5-VL-32B是通义千问系列的两个大模型,分别为纯文本和多模态模型。部署前需确认硬件要求,建议使用Docker环境并安装NVIDIA工具包。模型支持中英文,具备强大推理能力,适用于图文问答和多模态推理。

vLLM 部署Qwen2.5 LLM & VLM 大模型

安志合的学习博客
安志合的学习博客 · 2026-01-05T13:16:14Z

通过赋予 LLM 特定角色和回答范围(如仅限法律领域),可以帮助其理解具体需求的场景上下文,从而提供更优质的输出。

生成式大语言模型(LLM:eg:deepseek)用法技巧

Peijie's Wiki
Peijie's Wiki · 2026-01-05T00:00:00Z

撰写高质量输入的一些技巧LLM 的本质是一个输入输出程序软件体,这意味着:

1-AiLearning:生成式大语言模型(LLM:eg:deepseek)的用法技巧

Peijie's Wiki
Peijie's Wiki · 2026-01-05T00:00:00Z

项目提供本地部署与在线服务能力,支持通过 OpenAI 兼容接口对外提供推理服务,并包含交互式终端、在线服务与多种示例以便快速上手。• 高性能:通过重用前缀缓存(Radix Cache)、分块预填(Chunked Prefill)、重叠调度(Overlap Scheduling)与张量并行等技术优化吞吐与延迟。• 多场景部署:支持本地 GPU(依赖...

轻量高性能的 LLM 推理框架,试试 Mini-SGLang

dotNET跨平台
dotNET跨平台 · 2026-01-03T00:01:34Z
LLM的弱点——不能很好的讲笑话?

文章探讨了大型语言模型(LLM)在幽默生成方面的不足。作者指出,LLM在处理明确答案的任务时表现良好,但在幽默和多义性上存在局限,无法随机生成笑话,常常重复经典笑话,导致幽默感缺失。此外,AI的幽默理解和生成能力受限于训练数据,难以适应不同文化的笑话风格。

LLM的弱点——不能很好的讲笑话?

Est's Blog
Est's Blog · 2026-01-01T15:57:00Z
Weekly Issue-LLM可以提高我的学习速度么?

文章探讨了Spotify歌曲备份、Postgres设置建议、AI对生活的影响及开源的复杂性。作者反思技术进步带来的焦虑,强调持续学习的重要性,并分享学习新知识的挑战与经验。

Weekly Issue-LLM可以提高我的学习速度么?

Yiran's Blog
Yiran's Blog · 2025-12-28T00:00:00Z
Cactus v1:跨平台移动设备上的零延迟和完全隐私的LLM推理

Cactus是一家Y Combinator支持的初创公司,提供本地AI推理解决方案,适用于移动和低功耗设备。其SDK在beta版中提升了低端硬件性能,支持多种模型和量化级别,允许开发者本地部署模型,并提供云回退功能以确保高可用性。该SDK对学生、教育者、非营利组织和小企业免费开放。

Cactus v1:跨平台移动设备上的零延迟和完全隐私的LLM推理

InfoQ
InfoQ · 2025-12-24T11:00:00Z
可解释的AI代理:使用Spring AI捕获LLM工具调用推理

Spring AI的工具参数增强器使开发者在调用LLM工具时能够捕获推理过程,提升AI系统的可观察性和调试能力。通过动态扩展输入模式,开发者可以获取LLM的内在思维和信心水平,而不影响工具实现,从而增强AI的记忆和推理能力。

可解释的AI代理:使用Spring AI捕获LLM工具调用推理

Spring
Spring · 2025-12-23T00:00:00Z
Meta详细介绍了GEM广告模型,采用大规模LLM训练、混合并行和知识转移

Meta推出生成广告模型(GEM),旨在提升广告推荐效果。该模型通过处理大量用户与广告的互动,解决推荐系统的挑战。GEM利用先进架构、知识转移和优化训练基础设施,提高性能,并支持广告主目标与用户行为。Meta还采用多种并行策略和GPU优化,提升训练效率,帮助广告主实现更精准的广告投放。

Meta详细介绍了GEM广告模型,采用大规模LLM训练、混合并行和知识转移

InfoQ
InfoQ · 2025-12-22T08:39:00Z
BED-LLM:基于贝叶斯实验设计的LLM智能信息收集

我们提出了一种通用方法,称为BED-LLM,利用序列贝叶斯实验设计(BED)提升大型语言模型(LLMs)从用户或外部源智能收集信息的能力。通过迭代选择最大化期望信息增益(EIG)的问题,使LLMs成为有效的多轮对话代理。实验结果表明,BED-LLM在多项测试中显著优于直接提示和其他自适应设计策略。

BED-LLM:基于贝叶斯实验设计的LLM智能信息收集

Apple Machine Learning Research
Apple Machine Learning Research · 2025-12-19T00:00:00Z
高性能LLM应用的五大向量数据库

构建AI应用需要高维向量搜索,传统数据库无法满足需求。主要的五大向量数据库包括Pinecone(无服务器,自动扩展)、Qdrant(开源,快速高效)、Weaviate(结合向量与传统数据库)、Chroma(轻量嵌入式)和Milvus(亿级数据处理)。选择合适的数据库时需考虑性能、复杂性和成本。

高性能LLM应用的五大向量数据库

MachineLearningMastery.com
MachineLearningMastery.com · 2025-12-17T15:10:03Z
Osaurus - 一款兼容OpenAI和Anthropic API的macOS LLM服务器,提供MCP功能…

Osaurus是一个专注于macOS的LLM服务器和开发工具包,支持本地和云端模型运行,兼容OpenAI和Anthropic API。它提供MCP服务器,支持与Cursor和Claude Desktop等客户端集成,具备菜单栏聊天、插件和开发工具,旨在实现低延迟和安全的桌面生态系统集成。

Osaurus - 一款兼容OpenAI和Anthropic API的macOS LLM服务器,提供MCP功能…

云原生
云原生 · 2025-12-17T10:30:00Z
TornadoVM 2.0为Java带来自动GPU加速和LLM支持

TornadoVM项目最近发布了2.0版本,旨在为Java提供异构硬件运行时,自动加速Java程序,支持多核CPU、GPU和FPGA,适合机器学习和深度学习应用。新版本还推出了LLM推理库,提升了性能和易用性。该项目由曼彻斯特大学的Beehive实验室领导。

TornadoVM 2.0为Java带来自动GPU加速和LLM支持

InfoQ
InfoQ · 2025-12-17T06:00:00Z
不与 LLM 同乐

在开发游戏时遇到瓶颈,尝试多种想法却感到困惑。与LLM Gemini交流后,意识到自己在追求创新而非简单复刻,反思人类个体的独特性,强调共处的重要性,尽管渺小却充满可能性。

不与 LLM 同乐

KAIX.IN
KAIX.IN · 2025-12-10T05:45:08Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码