💡
原文英文,约300词,阅读约需1分钟。
📝
内容提要
DeepSeek-R1是新发布的本地LLM。通过Ollama和Cors配置后,可以在Cursor中运行DeepSeek-R1:8b模型。需使用ngrok获取公共URL,并在Cursor中通过该URL和API密钥调用模型。注意,Cursor不支持Compose功能。
🎯
关键要点
- DeepSeek-R1是新发布的本地LLM,适用于Cursor。
- 需要安装Ollama和Cors以避免403 Forbidden错误。
- 使用DeepSeek-R1:8b模型,该模型在Nvidia RTX 3070上表现良好。
- Ollama的默认服务端点为http://127.0.0.1:11434,但需使用ngrok获取公共URL。
- 使用ngrok命令生成公共URL,并确保其处于活动状态。
- 在Cursor中使用公共URL和API密钥调用模型,但不支持Compose功能。
❓
延伸问答
如何在Cursor中使用DeepSeek-R1模型?
在Cursor中使用DeepSeek-R1模型需要安装Ollama和Cors,使用ngrok生成公共URL,并通过该URL和API密钥调用模型。
DeepSeek-R1模型的性能如何?
DeepSeek-R1:8b模型在Nvidia RTX 3070上表现良好,能够达到60-70t/s的速度。
使用ngrok的步骤是什么?
首先下载并登录ngrok,然后使用命令生成公共URL,格式为:. grok.exe http 11434 --host-header="localhost:11434"。
在Cursor中调用DeepSeek-R1模型时需要注意什么?
在Cursor中调用DeepSeek-R1模型时,需确保使用ngrok生成的公共URL和正确的API密钥,并注意Cursor不支持Compose功能。
Ollama的默认服务端点是什么?
Ollama的默认服务端点是http://127.0.0.1:11434。
为什么需要配置Cors以避免403 Forbidden错误?
配置Cors是为了避免Cursor在调用Ollama时出现403 Forbidden错误,这是因为需要定义OLLAMA_ORIGINS环境变量。
➡️