使用Ollama本地离线运行大模型
原文中文,约600字,阅读约需2分钟。发表于: 。Ollama介绍用于启动并运行大型语言模型。GitHub地址:https://github.com/ollama/ollama官方网站:https://ollama.com/实践根据README的指引,安装对应系统的Ollama。由于我的电脑比较旧了,配置如下:所以就选择一个参数小一点的大模型,我选择的是phi3 3.8b的版本。在控制台输入:ollamarunphi3:latest即可。没下...
Ollama是一个用于启动和运行大型语言模型的工具,可以通过GitHub和官方网站获取。安装后可以选择合适的模型进行对话。开发者可以通过Ollama的接口接入自己的应用。旧电脑建议使用云平台或离线运行大模型。