小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
用 OpenVINO 打通 ComfyUI + ERNIE-Image:Intel CPU 和 GPU 也能快速本地生图

本文介绍了如何在没有CUDA环境的情况下,通过ComfyUI和OpenVINO在Intel平台上本地运行ERNIE-Image模型。该项目简化了安装和使用流程,用户只需按照步骤准备模型、启动ComfyUI并添加节点,即可快速生成图像,适合希望快速验证工作流的开发者。

用 OpenVINO 打通 ComfyUI + ERNIE-Image:Intel CPU 和 GPU 也能快速本地生图

百度大脑
百度大脑 · 2026-04-24T11:33:52Z
Agent Framework 接入 Ollama(本地模型实践记录)

Ollama 是一个本地运行大模型的工具,适合处理敏感数据和成本敏感的项目。安装后,Ollama 启动本地服务,用户可通过 API 调用模型。将 Ollama 集成到 Agent Framework 后,可以灵活地在本地完成 AI 调用链路,增强数据控制和可控性。

Agent Framework 接入 Ollama(本地模型实践记录)

dotNET跨平台
dotNET跨平台 · 2026-04-16T00:01:38Z
OpenClaw免费合法使用教程:零成本运行AI代理的终极指南

本文介绍了如何合法且低成本地使用OpenClaw和AI模型。通过本地运行小模型、利用免费API和学术计划,用户可以将每月成本控制在十美元以内。文章强调混合使用本地和云端资源的优势,建议用户动手实践以提升技术能力,并警惕不安全的免费服务和隐私风险。

OpenClaw免费合法使用教程:零成本运行AI代理的终极指南

极道
极道 · 2026-04-15T23:19:00Z
技术速递|oBeaver —— 一只可以在你本地机器上运行大语言模型的海狸 [特殊字符]

oBeaver 是一个本地运行大语言模型的工具,旨在避免云端数据传输。它基于 ONNX Runtime,支持多平台和 NPU 加速,提供简便的模型转换和推理功能,兼容 OpenAI API。oBeaver 结合了 Microsoft Foundry Local 和 ONNX Runtime,适用于多种场景,未来将增强 GPU 和 NPU 支持。

技术速递|oBeaver —— 一只可以在你本地机器上运行大语言模型的海狸 [特殊字符]

dotNET跨平台
dotNET跨平台 · 2026-04-11T01:57:28Z
如何使用Ollama在本地运行和自定义大型语言模型(LLMs)

大型语言模型(LLMs)是强大的人工智能系统,能够在本地离线运行,确保数据隐私并降低成本。本文介绍了如何使用Ollama设置本地LLMs,包括安装、管理和自定义模型,适合开发者和AI爱好者。通过本地运行,用户可获得更快的响应和更高的控制权。

如何使用Ollama在本地运行和自定义大型语言模型(LLMs)

freeCodeCamp.org
freeCodeCamp.org · 2026-03-03T12:00:28Z
有团队将智谱GLM-5从1.65TB压缩到241GB 256GB(内存+显存)即可在本地跑模型

智谱GLM-5模型已从1.65TB压缩至241GB,需256GB内存即可本地运行,支持256GB统一内存的Mac或24GB显存的PC。该模型在编码和聊天方面表现优异,提供更大的上下文窗口。

有团队将智谱GLM-5从1.65TB压缩到241GB 256GB(内存+显存)即可在本地跑模型

蓝点网
蓝点网 · 2026-02-13T05:50:31Z
Clawdbot / OpenClaw 是如何记住一切的

Clawdbot(OpenClaw)是一个开源的个人AI助手,能够在本地运行并处理多种任务。其独特之处在于持久化记忆系统,能够24小时保留上下文并记住对话内容,记忆存储在本地,用户完全掌控。Clawdbot利用Markdown文件进行信息存储和检索,支持多代理记忆隔离,确保个人和工作聊天分开。

Clawdbot / OpenClaw 是如何记住一切的

INTJer
INTJer · 2026-02-01T00:00:00Z
如何在本地运行LLM以与您的文档进行交互

大多数AI工具需要将数据发送到第三方服务器,而本地运行LLM可以保护隐私。本文介绍如何安装Ollama和OpenWebUI,选择合适的模型,设置文档搜索,确保数据不上传云端,从而安全地与敏感文档交互。

如何在本地运行LLM以与您的文档进行交互

freeCodeCamp.org
freeCodeCamp.org · 2026-01-10T00:38:09Z
你错过的七大开源AI编码模型

本文介绍了七种顶级开源编码模型,支持本地运行,确保隐私和控制,避免API费用。这些模型在编码基准测试中表现优异,适合需要保护机密代码的用户。

你错过的七大开源AI编码模型

KDnuggets
KDnuggets · 2025-11-21T13:00:54Z

Foundry Local 是一款可在 Windows 和 Mac 上运行的小型 AI 语言模型工具,类似于本地版 ChatGPT。它支持多种模型格式,用户可通过简单步骤将模型转换为 ONNX 格式并在本地运行。教程详细介绍了安装、转换和运行模型的过程,适合 AI 新手。

技术速递|新手指南:如何在 Foundry Local 中使用自定义模型

dotNET跨平台
dotNET跨平台 · 2025-08-29T23:48:32Z
你所需要的就是Ollama的新应用

Ollama是一款开源应用,允许用户在本地运行大型语言模型,避免依赖云服务。新版本提供友好的图形界面,简化模型下载和使用,支持文件互动和多种数据类型,提升生产力和数据隐私。

你所需要的就是Ollama的新应用

KDnuggets
KDnuggets · 2025-08-14T12:35:51Z

Gemini Robotics On-Device是一个高效的本地机器人模型,具备通用灵活性和快速任务适应能力,能够独立于网络运行,适用于延迟敏感的应用,执行复杂的多步骤指令。开发者可通过SDK进行模型评估和适应,支持快速调整以满足特定需求。该模型在多种测试场景中表现出色,能够完成如折叠衣物等精细任务,推动机器人技术的创新与发展。

Gemini Robotics On-Device将人工智能引入本地机器人设备

Google DeepMind Blog
Google DeepMind Blog · 2025-06-24T14:00:00Z

Gemini Robotics On-Device是一个高效的本地机器人模型,具备通用灵活性和快速任务适应能力。该模型独立于网络运行,适用于延迟敏感的应用,能够执行复杂的多步骤指令。开发者可通过SDK轻松评估和调整模型,以满足特定需求。

Gemini Robotics On-Device 将人工智能引入本地机器人设备

Google DeepMind Blog
Google DeepMind Blog · 2025-06-24T14:00:00Z
使用Ollama和Next.js构建AI助手 - 第1部分

本文介绍了如何使用Next.js、TailwindCSS和Ollama构建本地AI助手,步骤包括创建Next.js项目、安装Ollama并运行Gemma 3:1B模型、连接API和构建聊天界面。该助手在本地运行,确保隐私和快速响应,适合初学者。

使用Ollama和Next.js构建AI助手 - 第1部分

DEV Community
DEV Community · 2025-05-28T23:48:06Z
使用RepoSnap在几秒钟内压缩您的代码库以适应AI

RepoSnap是一款工具,可以在10秒内将50k行代码压缩为适合ChatGPT的文件。它提供可视化选择、即时反馈和单一文件输出,用户只需选择代码库文件夹即可轻松生成快照,支持本地运行,无需网络调用。

使用RepoSnap在几秒钟内压缩您的代码库以适应AI

DEV Community
DEV Community · 2025-04-22T15:45:12Z
我看到的5个本地环境错误及其正确解决方法

新项目的本地运行常面临挑战。通过简化启动步骤、利用现有工具和提供友好的开发体验,可以提高环境设置的效率。自动化流程可避免手动导入数据库,从而减少开发者困扰,提升团队协作效率。

我看到的5个本地环境错误及其正确解决方法

DEV Community
DEV Community · 2025-03-21T20:18:46Z
使用Act在本地运行GitHub Actions:开发者指南 🛠️

Act工具显著提升了GitHub Actions的使用体验,支持本地运行工作流以提前捕捉错误,节省时间。需Docker支持,配置后可运行特定工作流并加载环境变量。尽管部分功能不完全支持,但对开发工作流非常有帮助。

使用Act在本地运行GitHub Actions:开发者指南 🛠️

DEV Community
DEV Community · 2025-03-07T02:30:00Z
使用Docker在本地运行Deepseek!

Deepseek是一个新兴的AI应用,用户可以通过Docker在本地构建Deepseek客户端,无需互联网。文章介绍了如何创建Web界面与Deepseek交互,包括设置Docker Compose、安装Deepseek模型,以及创建HTML、CSS和JavaScript文件。最终,用户可以在本地运行Deepseek并进行提问。

使用Docker在本地运行Deepseek!

DEV Community
DEV Community · 2025-02-10T16:52:33Z

Open Interpreter 是一个本地运行代码的工具,提供自然语言界面,支持多种编程语言。用户可以创建文件、控制浏览器和分析数据,简化复杂任务,提升工作效率。

AI工具推荐——open-interpreter

dotNET跨平台
dotNET跨平台 · 2025-02-09T00:01:41Z
如何像专业人士一样在终端中本地运行DeepSeek

DeepSeek R1是一个开源推理模型,支持在本地运行,避免依赖云服务。用户可通过Ollama轻松下载和运行不同规模的模型,进行交互式聊天或API调用,体验本地AI的强大功能。

如何像专业人士一样在终端中本地运行DeepSeek

DEV Community
DEV Community · 2025-02-02T15:27:53Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码