💡
原文中文,约1100字,阅读约需3分钟。
📝
内容提要
本文介绍了如何在Mac上本地部署DeepSeek R1大模型,以避免在线内容审查。用户可通过Ollama安装和配置,选择合适的模型大小,并使用Chrome插件设置对话界面,适合处理敏感数据的用户,提供更大的使用自由度。
🎯
关键要点
- 在Mac上本地部署DeepSeek R1大模型可以避免在线内容审查。
- 普通用户可以使用网页版或app,但敏感数据会被审查。
- 本地部署没有内容审查限制,适合处理保密和知识库数据。
- 使用Ollama进行本地部署,Windows用户也可参考此教程。
- 安装Ollama后,通过命令行运行模型,模型大小根据内存选择。
- 8G内存适合1.5B模型,16G内存适合8B模型,32G内存适合14B模型,64G内存适合32B模型。
- 下载模型时可取消并断点续传,确保Ollama未退出。
- 安装Chrome插件Page Assist以设置对话界面,选择模型后即可开始聊天。
- 可以设置自定义知识库,通过上传文件进行对话。
- 本地模型可以通过“扮演”功能绕过限制,使用范围几乎无限制。
➡️