用 ollama 本地运行谷歌开源大模型 Gemma
原文中文,约1200字,阅读约需3分钟。发表于: 。原先在 23 年初的时候调研过一些国产的大模型,包括复旦开源的 MOSS 和清华的 ChatGLM,那时候还是早期版本,需要在 Linux 上,并且有比较好的显卡,而且一般来讲都得是 N 卡,过程中需要安装
谷歌开源了大模型Gemma,使用ollama工具可以在本地运行该模型。推荐使用16g内存运行13B及以下模型。可以通过命令'ollama run gemma:7b'拉取模型并进行问答。Gemma比ChatGLM更丰富,是个低配平替。可以安装open-webui实现网页版,也可在Windows环境下使用CPU运行模型。大模型已经普及,对工作学习有提升。