Running GGUF Models with Ollama - Guo Guo Jun
原文约300字/词,阅读约需1分钟。发表于: 。Ollama 默认直接支持很多模型,只需要简单的使用 ollama run命令,示例如下: ollama run gemma:2b 就可安装、启动、使用对应模型。 通过这样方式直接支持的模型我们可以通过https://ollama.com/library 找到。 在https://huggingfa
Ollama是一个支持多种模型的工具,可以通过使用“ollama run”命令直接支持许多模型。对于不直接支持的模型,可以创建模型配置文件来加载它们。本文提供了使用Ollama加载GGUF模型文件的说明,并解释了模型配置文件中的参数。Ollama允许用户快速安装、启动和使用不同的模型。