小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
使用本地小型语言模型构建AI代理

本文介绍如何使用本地小型语言模型构建AI代理,无需互联网连接和API费用。内容包括AI代理的定义、Ollama和Python库的设置步骤,以及逐步构建本地AI代理的方法。小型语言模型(如Phi-3和Llama 3.2)适合在普通电脑上运行,提供隐私保护和零成本。通过示例代码,读者可以创建具备记忆和工具的智能代理。

使用本地小型语言模型构建AI代理

MachineLearningMastery.com
MachineLearningMastery.com · 2026-04-23T12:00:31Z

本文介绍了如何在本地构建一个免费的人工智能编码助手,结合OpenCode、Ollama和Qwen3-Coder三种工具。该系统提供隐私和安全性,无需互联网连接,使用无限制。用户可以通过简单步骤下载和配置这些工具,以提高编码、调试和代码生成的效率,保护知识产权。

探索OpenCode + Ollama + Qwen3-Coder的可能性

KDnuggets
KDnuggets · 2026-04-21T16:00:03Z
从“开源英雄”到“社区公敌”,Ollama 到底做错了什么?

Ollama曾被视为开源英雄,但因未遵循开源协议和使用私有格式锁定用户而遭到社区批评。开发者们开始寻找替代方案,如回归llama.cpp或使用真正开源的包装器。Ollama的案例提醒创业者,用户体验不能以牺牲开放性为代价。

从“开源英雄”到“社区公敌”,Ollama 到底做错了什么?

Tony Bai
Tony Bai · 2026-04-17T23:54:11Z
Agent Framework 接入 Ollama(本地模型实践记录)

Ollama 是一个本地运行大模型的工具,适合处理敏感数据和成本敏感的项目。安装后,Ollama 启动本地服务,用户可通过 API 调用模型。将 Ollama 集成到 Agent Framework 后,可以灵活地在本地完成 AI 调用链路,增强数据控制和可控性。

Agent Framework 接入 Ollama(本地模型实践记录)

dotNET跨平台
dotNET跨平台 · 2026-04-16T00:01:38Z
国产MiniMax M2.7已在Ollama云端免费用:OpenClaw、Claude和Hermes

MiniMax M2.7模型现已在Ollama云端免费使用,支持商用。该模型具备自我进化能力,能够构建复杂智能体并完成高难度任务,尤其在软件工程和复杂环境处理方面表现优异,用户反馈良好。

国产MiniMax M2.7已在Ollama云端免费用:OpenClaw、Claude和Hermes

极道
极道 · 2026-04-12T02:36:00Z

使用Ollama和Qwen3.5,您可以在旧笔记本电脑上轻松搭建本地AI环境。安装Ollama后,下载并运行Qwen3.5,再安装OpenCode以创建轻量级编码代理。通过简单命令生成Python项目,体验本地AI的实用性,但在复杂编码时可能会遇到问题。

在旧笔记本电脑上运行Qwen3.5:轻量级本地智能AI搭建指南

KDnuggets
KDnuggets · 2026-04-08T14:00:52Z
Ollama云版来了:仅一个邮箱可免费使用多个AI大模型

Ollama.com 是一个本地 AI 模型运行平台,支持一行代码部署。与 NVIDIA 合作,提供适合轻量使用的免费计划,限制包括每 5 小时 50W token 和每 7 天 100W token。注册简单,无需信用卡或电话。

Ollama云版来了:仅一个邮箱可免费使用多个AI大模型

如有乐享
如有乐享 · 2026-04-08T00:23:22Z
第729期:NumPy音乐、Ollama、可迭代对象及更多(2026年4月7日)

本文介绍了使用NumPy生成音频波形的音乐创作方法,以及如何在本地运行Ollama工具的大型语言模型。同时讨论了Python中的对象迭代、pytest测试模式、类型系统和Django数据库更新等主题。

第729期:NumPy音乐、Ollama、可迭代对象及更多(2026年4月7日)

PyCoder’s Weekly
PyCoder’s Weekly · 2026-04-07T19:30:00Z

本文介绍了在macOS和Windows环境下部署本地大模型服务的步骤,包括安装ollama和LM Studio、配置环境变量、下载模型以及启动服务。用户可以通过API接口进行测试,确保上下文长度设置合适以优化效果。

本地部署大模型服务

范叶亮的博客
范叶亮的博客 · 2026-04-05T00:00:00Z

本文讨论了在Ollama v0.20.0上运行Gemma 4模型的体验,强调其低资源消耗和适合函数调用的微调特性。

近思录 2026-04-02

M-x Chris-An-Emacser
M-x Chris-An-Emacser · 2026-04-01T16:00:00Z
如何将VS Code与Ollama集成以实现本地AI辅助

本文介绍了如何在本地安装Ollama AI工具并与Visual Studio Code集成,以帮助程序员学习编程语言。作者强调AI应作为学习助手,而非替代技能。文章详细说明了在Linux、macOS和Windows上安装Ollama和VS Code的步骤,以及如何配置VS Code以使用Ollama。

如何将VS Code与Ollama集成以实现本地AI辅助

The New Stack
The New Stack · 2026-04-01T12:00:00Z
Ollama利用Apple的MLX框架提升Mac上本地AI模型的运行速度

Ollama最新更新支持Apple的MLX框架,提升了本地运行大型语言模型的速度和内存效率,并引入了NVIDIA的NVFP4格式以优化内存使用。这一更新使开发者能够更好地在本地运行AI模型,增强对数据和执行的控制,满足对本地AI助手的需求。

Ollama利用Apple的MLX框架提升Mac上本地AI模型的运行速度

The New Stack
The New Stack · 2026-03-31T12:00:00Z

Zeroclaw 最新版本拒绝所有工具请求,导致 ollama 无法识别。转向 AstrBot 后,发现其易于配置的 Web 管理平台和完整日志功能,部署简单,适合不同需求。

抛弃 Zeroclaw 选择 AstrBot,简单易用,不过前提是不在意内存

伪斜杠青年
伪斜杠青年 · 2026-03-27T14:08:20Z
瑞安·兰伯特:使用OpenWeb UI和Ollama的本地LLM

本文讨论了使用Ollama和OpenWeb UI运行本地LLM的经验,强调数据隐私和离线操作的重要性。作者分享了硬件需求、模型管理和自定义功能,指出RAG功能的局限性,并探讨了集成网络搜索的必要性。总体而言,Ollama与OpenWeb UI的结合满足了作者的编程需求。

瑞安·兰伯特:使用OpenWeb UI和Ollama的本地LLM

Planet PostgreSQL
Planet PostgreSQL · 2026-03-18T05:01:00Z

文章讨论了在本地部署AI时,使用OpenClaw和Ollama结合Qwen3.5:9b模型无法读取本地文件的问题。作者质疑这是技术限制还是厂商故意为之,并指出同样的模型在不同客户端表现不同,可能与工具调用格式和系统提示词有关。文章还提到厂商可能出于商业利益考虑,故意让本地部署体验不如线上服务。最后,作者建议用户保持技术敏感,独立思考。

巨坑?OpenClaw+Ollama+Qwen3.5:9b竟然无法读取本地文件!

碎言博客
碎言博客 · 2026-03-11T12:53:16Z
如何通过使用Ollama在本地运行大型语言模型来保护敏感数据

在构建AI应用时,保护用户敏感数据至关重要。Ollama是一个开源工具,允许用户在本地运行大型语言模型,从而避免将数据发送到外部API,确保隐私。本文介绍了Ollama的安装、使用及其与Python的集成方法。

如何通过使用Ollama在本地运行大型语言模型来保护敏感数据

freeCodeCamp.org
freeCodeCamp.org · 2026-03-05T15:04:02Z
本地 AI 全栈部署:Ollama + Open WebUI + ComfyUI 图像生成

本文介绍如何在NVIDIA DGX Spark上部署Ollama、Open WebUI和ComfyUI,以创建本地AI工作站。用户可以通过Open WebUI进行聊天,并利用ComfyUI生成图像。文章详细说明了前置准备、部署步骤及模型选择,确保用户能够顺利搭建和使用该系统。

本地 AI 全栈部署:Ollama + Open WebUI + ComfyUI 图像生成

EdNovas的小站
EdNovas的小站 · 2026-03-05T13:29:00Z
claude code with qwen3.5 via ollama

稻草人因在田野中的出色表现而获奖,这是一个经典的幽默笑话,简单而有趣。

claude code with qwen3.5 via ollama

王福强
王福强 · 2026-03-04T16:00:00Z
Ubuntu 本地部署 Ollama + qwen3.5:9b + OpenWebUI 完全指北

本文介绍了如何在Ubuntu系统上本地部署Ollama与Qwen 3.5 (9B)模型,并结合Open WebUI实现AI对话系统。步骤包括安装Ollama、运行Qwen 3.5模型、使用Docker部署Open WebUI,以及配置与使用界面。用户可通过浏览器访问本地服务,注册账号并选择模型,确保隐私与无Token费用。

Ubuntu 本地部署 Ollama + qwen3.5:9b + OpenWebUI 完全指北

碎言博客
碎言博客 · 2026-03-04T00:27:58Z
如何使用Ollama在本地运行和自定义大型语言模型(LLMs)

大型语言模型(LLMs)是强大的人工智能系统,能够在本地离线运行,确保数据隐私并降低成本。本文介绍了如何使用Ollama设置本地LLMs,包括安装、管理和自定义模型,适合开发者和AI爱好者。通过本地运行,用户可获得更快的响应和更高的控制权。

如何使用Ollama在本地运行和自定义大型语言模型(LLMs)

freeCodeCamp.org
freeCodeCamp.org · 2026-03-03T12:00:28Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码