ollama:本地运行的大型语言模型
可在在本地启动并运行 Llama 2 和其他大型语言模型。 Ollama的服务器端是用 Go 编写的,他们还提供了一个 Docker 实例以方便使用: Ollama Docker image Ollama 允许您从注册表下载模型并在本地运行: curl https://ollama.ai/install.sh | s
Llama 2和其他大型语言模型可以在本地启动和运行。Ollama是用Go编写的服务器端,提供了Docker实例方便使用。Ollama支持多种插件和开源模型。使用Java和Quarkus可以与Ollama API交互。