💡
原文中文,约10600字,阅读约需26分钟。
📝
内容提要
本文介绍了Ollama HTTP API的使用,重点区分了generate和chat两个核心端点。generate用于单次补全,而chat适合多轮对话。文章详细解析了各API端点的参数和示例,建议新手从/chat端点开始,逐步掌握API的使用。
🎯
关键要点
-
Ollama HTTP API 主要有两个核心端点:generate 和 chat。
-
generate 端点用于单次补全,而 chat 端点适合多轮对话。
-
generate 端点的输入格式为 prompt 字符串,chat 端点的输入格式为包含角色的消息数组。
-
chat 端点自动维护历史消息,适合有上下文依赖的任务。
-
建议新手从 /api/chat 端点开始,逐步掌握 API 的使用。
-
generate 端点支持代码补全和结构化输出,而 chat 端点支持工具调用。
-
所有 API 请求均使用 JSON body,主要通过 POST 方法进行。
-
Ollama API 提供了多种参数配置选项,用户可以根据需求进行调整。
❓
延伸问答
Ollama API的主要功能是什么?
Ollama API主要用于提供大模型的HTTP接口,支持文本生成和对话管理。
generate和chat端点有什么区别?
generate用于单次补全,输入为prompt字符串;chat适合多轮对话,输入为包含角色的消息数组。
如何使用Ollama API进行多轮对话?
使用/chat端点,将历史消息放入messages数组中,模型会自动维护上下文。
新手应该从哪个端点开始使用Ollama API?
建议新手从/api/chat端点开始,逐步掌握API的使用。
Ollama API支持哪些参数配置选项?
Ollama API支持多种参数配置选项,如temperature、top_p、seed等,用户可根据需求调整。
如何在Ollama API中实现代码补全?
使用generate端点的suffix参数,可以在代码中插入补全内容,适合代码自动补全场景。
➡️