小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
沉浸式翻译 immersive translate
Android Studio Otter增强代理工作流程并增加LLM灵活性

最新的Android Studio Otter功能更新引入了多项新特性,帮助开发者更轻松地集成AI工具,包括选择LLM、增强的代理模式和自然语言测试支持。开发者可以选择不同的LLM,支持本地模型以满足数据隐私需求,并通过“旅程”定义用户测试,简化测试编写。

Android Studio Otter增强代理工作流程并增加LLM灵活性

InfoQ
InfoQ · 2026-01-17T18:00:00Z

那些不再把 LLM 当作全知全能的“大脑”,而是把它当作一枚昂贵但强大的“认知芯片”去使用的工程师,或许能最先造出真正可用的 Agent。它是无状态(Stateless)的,甚至是“笨”的。今天在一个帖子中看到的一个精彩比喻,或许能解开这个死结:我们不应该把 LLM 视为“大脑”或“操作系统”,而应该把它降级为一枚昂贵但强大的“ALU”(算术逻辑单元)。目前的 Agent...

做智能体时,别把 LLM 当大脑:它是计算机里的 ALU,而你需要构建的是操作系统

dotNET跨平台
dotNET跨平台 · 2026-01-12T23:58:27Z
ollama 0.14 发布,可利用 Bash 使 AI/LLM 在您的系统上运行命令

ollama 0.14-rc2 版本发布,新增实验性代理循环功能,支持 LLM 使用本地 bash 和网络搜索,用户需交互批准命令执行,并设有安全和危险命令的自动允许与拒绝列表。同时,改进了 API 兼容性和图像生成支持。

ollama 0.14 发布,可利用 Bash 使 AI/LLM 在您的系统上运行命令

实时互动网
实时互动网 · 2026-01-12T02:16:27Z

LangGraph 通过有向图模型解决 LLM 的幻觉问题,支持循环、状态管理和人机协作,适用于金融等高风险领域,确保输出的确定性和自动回退功能。

LangGraph 是如何让LLM产生确定性输出的?

luozhiyun`s Blog 我的技术分享
luozhiyun`s Blog 我的技术分享 · 2026-01-10T12:46:07Z
如何在本地运行LLM以与您的文档进行交互

大多数AI工具需要将数据发送到第三方服务器,而本地运行LLM可以保护隐私。本文介绍如何安装Ollama和OpenWebUI,选择合适的模型,设置文档搜索,确保数据不上传云端,从而安全地与敏感文档交互。

如何在本地运行LLM以与您的文档进行交互

freeCodeCamp.org
freeCodeCamp.org · 2026-01-10T00:38:09Z
Meta利用大语言模型(LLM)进行变异测试以提升合规覆盖率

Meta利用大语言模型(LLM)改进变异测试,提升合规覆盖率。该系统生成上下文相关的变异体和测试,解决传统变异测试的局限性,帮助团队更高效地满足全球监管要求。通过自动化合规强化系统(ACH),Meta显著减少操作开销,并在多个平台成功部署,生成大量可操作的测试。未来,Meta将继续扩展ACH,优化变异体生成,并研究开发者与LLM生成测试的互动。

Meta利用大语言模型(LLM)进行变异测试以提升合规覆盖率

InfoQ
InfoQ · 2026-01-06T15:00:00Z

Qwen2.5-32B和Qwen2.5-VL-32B是通义千问系列的两个大模型,分别为纯文本和多模态模型。部署前需确认硬件要求,建议使用Docker环境并安装NVIDIA工具包。模型支持中英文,具备强大推理能力,适用于图文问答和多模态推理。

vLLM 部署Qwen2.5 LLM & VLM 大模型

安志合的学习博客
安志合的学习博客 · 2026-01-05T13:16:14Z

通过赋予 LLM 特定角色和回答范围(如仅限法律领域),可以帮助其理解具体需求的场景上下文,从而提供更优质的输出。

生成式大语言模型(LLM:eg:deepseek)用法技巧

Peijie's Wiki
Peijie's Wiki · 2026-01-05T00:00:00Z

撰写高质量输入的一些技巧LLM 的本质是一个输入输出程序软件体,这意味着:

1-AiLearning:生成式大语言模型(LLM:eg:deepseek)的用法技巧

Peijie's Wiki
Peijie's Wiki · 2026-01-05T00:00:00Z

项目提供本地部署与在线服务能力,支持通过 OpenAI 兼容接口对外提供推理服务,并包含交互式终端、在线服务与多种示例以便快速上手。• 高性能:通过重用前缀缓存(Radix Cache)、分块预填(Chunked Prefill)、重叠调度(Overlap Scheduling)与张量并行等技术优化吞吐与延迟。• 多场景部署:支持本地 GPU(依赖...

轻量高性能的 LLM 推理框架,试试 Mini-SGLang

dotNET跨平台
dotNET跨平台 · 2026-01-03T00:01:34Z
LLM的弱点——不能很好的讲笑话?

文章探讨了大型语言模型(LLM)在幽默生成方面的不足。作者指出,LLM在处理明确答案的任务时表现良好,但在幽默和多义性上存在局限,无法随机生成笑话,常常重复经典笑话,导致幽默感缺失。此外,AI的幽默理解和生成能力受限于训练数据,难以适应不同文化的笑话风格。

LLM的弱点——不能很好的讲笑话?

Est's Blog
Est's Blog · 2026-01-01T15:57:00Z
Weekly Issue-LLM可以提高我的学习速度么?

文章探讨了Spotify歌曲备份、Postgres设置建议、AI对生活的影响及开源的复杂性。作者反思技术进步带来的焦虑,强调持续学习的重要性,并分享学习新知识的挑战与经验。

Weekly Issue-LLM可以提高我的学习速度么?

Yiran's Blog
Yiran's Blog · 2025-12-28T00:00:00Z
Cactus v1:跨平台移动设备上的零延迟和完全隐私的LLM推理

Cactus是一家Y Combinator支持的初创公司,提供本地AI推理解决方案,适用于移动和低功耗设备。其SDK在beta版中提升了低端硬件性能,支持多种模型和量化级别,允许开发者本地部署模型,并提供云回退功能以确保高可用性。该SDK对学生、教育者、非营利组织和小企业免费开放。

Cactus v1:跨平台移动设备上的零延迟和完全隐私的LLM推理

InfoQ
InfoQ · 2025-12-24T11:00:00Z
可解释的AI代理:使用Spring AI捕获LLM工具调用推理

Spring AI的工具参数增强器使开发者在调用LLM工具时能够捕获推理过程,提升AI系统的可观察性和调试能力。通过动态扩展输入模式,开发者可以获取LLM的内在思维和信心水平,而不影响工具实现,从而增强AI的记忆和推理能力。

可解释的AI代理:使用Spring AI捕获LLM工具调用推理

Spring
Spring · 2025-12-23T00:00:00Z
Meta详细介绍了GEM广告模型,采用大规模LLM训练、混合并行和知识转移

Meta推出生成广告模型(GEM),旨在提升广告推荐效果。该模型通过处理大量用户与广告的互动,解决推荐系统的挑战。GEM利用先进架构、知识转移和优化训练基础设施,提高性能,并支持广告主目标与用户行为。Meta还采用多种并行策略和GPU优化,提升训练效率,帮助广告主实现更精准的广告投放。

Meta详细介绍了GEM广告模型,采用大规模LLM训练、混合并行和知识转移

InfoQ
InfoQ · 2025-12-22T08:39:00Z
BED-LLM:基于贝叶斯实验设计的LLM智能信息收集

我们提出了一种通用方法,称为BED-LLM,利用序列贝叶斯实验设计(BED)提升大型语言模型(LLMs)从用户或外部源智能收集信息的能力。通过迭代选择最大化期望信息增益(EIG)的问题,使LLMs成为有效的多轮对话代理。实验结果表明,BED-LLM在多项测试中显著优于直接提示和其他自适应设计策略。

BED-LLM:基于贝叶斯实验设计的LLM智能信息收集

Apple Machine Learning Research
Apple Machine Learning Research · 2025-12-19T00:00:00Z
高性能LLM应用的五大向量数据库

构建AI应用需要高维向量搜索,传统数据库无法满足需求。主要的五大向量数据库包括Pinecone(无服务器,自动扩展)、Qdrant(开源,快速高效)、Weaviate(结合向量与传统数据库)、Chroma(轻量嵌入式)和Milvus(亿级数据处理)。选择合适的数据库时需考虑性能、复杂性和成本。

高性能LLM应用的五大向量数据库

MachineLearningMastery.com
MachineLearningMastery.com · 2025-12-17T15:10:03Z
Osaurus - 一款兼容OpenAI和Anthropic API的macOS LLM服务器,提供MCP功能…

Osaurus是一个专注于macOS的LLM服务器和开发工具包,支持本地和云端模型运行,兼容OpenAI和Anthropic API。它提供MCP服务器,支持与Cursor和Claude Desktop等客户端集成,具备菜单栏聊天、插件和开发工具,旨在实现低延迟和安全的桌面生态系统集成。

Osaurus - 一款兼容OpenAI和Anthropic API的macOS LLM服务器,提供MCP功能…

云原生
云原生 · 2025-12-17T10:30:00Z
TornadoVM 2.0为Java带来自动GPU加速和LLM支持

TornadoVM项目最近发布了2.0版本,旨在为Java提供异构硬件运行时,自动加速Java程序,支持多核CPU、GPU和FPGA,适合机器学习和深度学习应用。新版本还推出了LLM推理库,提升了性能和易用性。该项目由曼彻斯特大学的Beehive实验室领导。

TornadoVM 2.0为Java带来自动GPU加速和LLM支持

InfoQ
InfoQ · 2025-12-17T06:00:00Z
不与 LLM 同乐

在开发游戏时遇到瓶颈,尝试多种想法却感到困惑。与LLM Gemini交流后,意识到自己在追求创新而非简单复刻,反思人类个体的独特性,强调共处的重要性,尽管渺小却充满可能性。

不与 LLM 同乐

KAIX.IN
KAIX.IN · 2025-12-10T05:45:08Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码