小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
沉浸式翻译 immersive translate
Dify.AI
如何通过使用Ollama在本地运行大型语言模型来保护敏感数据

在构建AI应用时,保护用户敏感数据至关重要。Ollama是一个开源工具,允许用户在本地运行大型语言模型,从而避免将数据发送到外部API,确保隐私。本文介绍了Ollama的安装、使用及其与Python的集成方法。

如何通过使用Ollama在本地运行大型语言模型来保护敏感数据

freeCodeCamp.org
freeCodeCamp.org · 2026-03-05T15:04:02Z
本地 AI 全栈部署:Ollama + Open WebUI + ComfyUI 图像生成

使用 ComfyUI Manager 的安装缺失自定义节点功能,可以一键解决缺失节点的问题。FLUX 工作流通常只使用内置节点,因此一般不会出现此类问题。

本地 AI 全栈部署:Ollama + Open WebUI + ComfyUI 图像生成

EdNovas的小站
EdNovas的小站 · 2026-03-05T13:29:00Z
通过Ollama使用Qwen3.5的Claude代码

稻草人因在田野中的出色表现而获奖,这是一个经典的幽默笑话,简单而有趣。

通过Ollama使用Qwen3.5的Claude代码

王福强
王福强 · 2026-03-04T16:00:00Z
Complete Guide to Local Deployment of Ollama + qwen3.5:9b + OpenWebUI on Ubuntu

Ollama服务已启用,主进程ID为84301,当前内存使用17.5M,CPU时间为15分钟51秒。

Complete Guide to Local Deployment of Ollama + qwen3.5:9b + OpenWebUI on Ubuntu

碎言博客
碎言博客 · 2026-03-04T00:27:58Z
如何使用Ollama在本地运行和自定义大型语言模型(LLMs)

大型语言模型(LLMs)是强大的人工智能系统,能够在本地离线运行,确保数据隐私并降低成本。本文介绍了如何使用Ollama设置本地LLMs,包括安装、管理和自定义模型,适合开发者和AI爱好者。通过本地运行,用户可获得更快的响应和更高的控制权。

如何使用Ollama在本地运行和自定义大型语言模型(LLMs)

freeCodeCamp.org
freeCodeCamp.org · 2026-03-03T12:00:28Z
ollama 0.17 版本发布,改进了 OpenClaw 入门流程

开源项目ollama发布v0.17.0版本,增强了OpenClaw的引导流程,改善了集成,用户可通过简单命令启动OpenClaw,ollama负责安装和设置。此外,公开了服务器的默认上下文长度,并进行了其他改进。

ollama 0.17 版本发布,改进了 OpenClaw 入门流程

实时互动网
实时互动网 · 2026-02-24T02:27:03Z
12,000个Ollama实例暴露:当“本地优先”遇上现实世界

Ollama缺乏身份验证,导致未来所有CVE漏洞均可被任何人利用。发现的漏洞,如路径遍历或内存损坏,可能被远程攻击者轻易利用,从而完全攻陷系统。

12,000个Ollama实例暴露:当“本地优先”遇上现实世界

LeakIX blog
LeakIX blog · 2026-02-23T09:00:00Z

使用qwen30b-a3b模型直接使用阿里百炼永远比ollama部署的模型toolcall效果要更好。对于方法调用参数的定义非常的奇怪如果参数是引用类型或者存在嵌套的情况则上下文会完全丢失参数细节。如果你也遇到类似的问题可以考虑转用Microsoft.Extensions.AI.OpenAI。最近在做一些端侧部署一些小参数模型来进行一些自动化操作的尝试发现一个有意思的地方。c#调用ollam...

c#中ollama ToolCall为什么比较“笨“

dotNET跨平台
dotNET跨平台 · 2026-01-29T00:02:52Z

使用qwen30b-a3b模型直接使用阿里百炼永远比ollama部署的模型toolcall效果要更好。对于方法调用参数的定义非常的奇怪如果参数是引用类型或者存在嵌套的情况则上下文会完全丢失参数细节。如果你也遇到类似的问题可以考虑转用Microsoft.Extensions.AI.OpenAI。最近在做一些端侧部署一些小参数模型来进行一些自动化操作的尝试发现一个有意思的地方。c#调用ollam...

c#中ollama ToolCall为什么比较“笨“

dotNET跨平台
dotNET跨平台 · 2026-01-29T00:02:52Z
第719期:Django任务、字典、Ollama及更多(2026年1月27日)

Django 6引入了新的任务框架,提供异步任务的通用接口。本文讲解如何将Celery特定代码迁移到这一新机制。

第719期:Django任务、字典、Ollama及更多(2026年1月27日)

PyCoder’s Weekly
PyCoder’s Weekly · 2026-01-27T19:30:00Z

无论是agentic开发,使用LLM APi, 理解function calling 都很重要,特别是底层的请求和响应payload工作方式。ollama是服务端-客户端架构,有后台服务进程olllama.exe,提供了GUI终端和命令行工具可交互,另外提供sdk和restful api,可供各种程序或者语言操作ollama。首次推理请求, 显存使用稳定在6g,...

还有比ollama更傻瓜式的大模型本地部署方式吗 ?

dotNET跨平台
dotNET跨平台 · 2026-01-22T23:55:30Z
ollama 0.14 发布,可利用 Bash 使 AI/LLM 在您的系统上运行命令

ollama 0.14-rc2 版本发布,新增实验性代理循环功能,支持 LLM 使用本地 bash 和网络搜索,用户需交互批准命令执行,并设有安全和危险命令的自动允许与拒绝列表。同时,改进了 API 兼容性和图像生成支持。

ollama 0.14 发布,可利用 Bash 使 AI/LLM 在您的系统上运行命令

实时互动网
实时互动网 · 2026-01-12T02:16:27Z
使用n8n、MCP和Ollama实现强大的本地AI自动化

本文介绍了如何通过n8n、MCP和Ollama在本地工作站或小型服务器上实现自动化,替代脆弱的脚本和昂贵的API系统。内容涵盖日志处理、数据质量监控、数据标记、研究更新、事件后期分析、合同审查和代码审查等自动化工作流,强调本地推理的高效性和控制力。

使用n8n、MCP和Ollama实现强大的本地AI自动化

KDnuggets
KDnuggets · 2026-01-08T15:00:43Z
在 Blinko 中使用 Ollama 作为 AI 供应商

Blinko 是一款开源的 AI 知识库应用,支持 RAG 检索增强生成。它利用 Ollama 的嵌入模型将知识库内容转化为向量,实现语义搜索。Ollama 易于本地部署,支持多种模型,配置后可高效使用 AI 功能。

在 Blinko 中使用 Ollama 作为 AI 供应商

Dejavu's Blog
Dejavu's Blog · 2025-12-01T10:40:15Z

Ollama开源项目发现严重漏洞,攻击者可利用特制模型文件在易受攻击系统上执行任意代码。受影响版本为0.7.0及之前,需立即升级至最新版本以确保安全。

Ollama漏洞允许攻击者通过解析恶意模型文件执行任意代码

FreeBuf网络安全行业门户
FreeBuf网络安全行业门户 · 2025-11-20T01:16:05Z
ollama 0.12.11 带来 Vulkan 加速功能

ollama 0.12.11 版本发布,新增 Vulkan API 支持,提升旧款 AMD 显卡性能,增加 Logprobs API 和 WebP 图像格式,优化渲染性能,优先使用独立显卡。

ollama 0.12.11 带来 Vulkan 加速功能

实时互动网
实时互动网 · 2025-11-17T02:15:30Z
如何在个人电脑上运行开源大型语言模型 – 本地运行Ollama

在个人电脑上运行大型语言模型(LLM)变得更加简单,用户可以通过Ollama等工具离线下载和运行开源模型,确保隐私和控制。安装过程简单,支持图形界面和命令行,适合开发者和普通用户。

如何在个人电脑上运行开源大型语言模型 – 本地运行Ollama

freeCodeCamp.org
freeCodeCamp.org · 2025-11-10T21:19:06Z

CNB云开发平台为开发者提供全链路DevOps解决方案,配备高性能GPU,可稳定运行18小时。部署Ollama的步骤包括准备仓库、启动环境、选择模型、拉取模型、配置路径、端口映射、验证结果和调用...

在 CNB 云开发中部署 Ollama:零门槛体验 AI 大模型,极速启动指南

青山小站
青山小站 · 2025-11-06T14:16:00Z
在 n8n 中使用 Ollama 的本地 LLM 模型

Oracle 提供的免费 VM.Standard.A1.Flex 实例适合轻型 LLM 模型和任务。通过 Docker 部署 n8n 服务,并结合 Ollama 运行本地模型,实现自动化工作流。配置 PostgreSQL 数据库和 Nginx 反向代理后,可以通过域名访问 n8n,创建管理员账号并激活功能。使用 Docker 部署 Ollama,下载 LLM 模型,最终实现将 RSS 摘要发送到 Telegram 的工作流。

在 n8n 中使用 Ollama 的本地 LLM 模型

Dejavu's Blog
Dejavu's Blog · 2025-11-06T12:50:18Z
ollama 0.12.6-rc0 发布,推出实验性 Vulkan 支持及扩展 AMD 和 Intel GPU 覆盖范围

ollama 0.12.6-rc0 软件发布,新增实验性Vulkan API支持,允许在无GPU时使用,广泛应用于大语言模型,兼容更多AMD与英特尔显卡。Vulkan支持开发历时一年半,现已实现。

ollama 0.12.6-rc0 发布,推出实验性 Vulkan 支持及扩展 AMD 和 Intel GPU 覆盖范围

实时互动网
实时互动网 · 2025-10-16T01:57:39Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码