.NET使用OllamaSharp实现AI大模型推理对话的简单演示
原文中文,约1900字,阅读约需5分钟。发表于: 。前提条件:请确保你本地已经安装了ollama以及有关本地离线模型。或者已有远程模型环境等。如果没有,请自行部署。如果需要帮助,可以文末获取联系方式咨询。由于部署离线大模型过于简单,在线资料也很多,我就省略这个步骤了。创建一个项目,添加使用MIT开源协议的一个nuget包 OllamaSharp确保Ollama应用已经启动。默认本地ollama的端口是11434,也可以自行部署时候更改环境变量进行修...
确保本地安装Ollama及其离线模型,创建项目并添加OllamaSharp包。启动Ollama,验证连接,列出模型并选择。输入提示词后可进行对话并获取返回内容。代码示例展示了连接和聊天功能。