DeepSeek模型本地部署教程可参考以下步骤,结合权威信息源整理如下:
一、核心工具安装
-
Ollama安装
-
下载安装包:访问ollama.com获取对应操作系统的安装包。
-
安装路径设置:Windows用户建议使用非C盘路径(如E盘),避免磁盘空间不足。可通过创建
install.bat
脚本设置环境变量OLLAMA_MODELS
指向新路径。 -
验证安装:命令行输入
ollama --version
确认版本号。
-
-
DeepSeek模型下载
-
通过Ollama命令行工具下载模型,例如:
ollamarundeepseek-r1:7b # 7B版本,约5GB文件大小
-
下载中断时可用
ollama pull
命令续传。
-
二、硬件与模型选择
-
硬件要求 :
-
推荐配置 :RTX 4060(8GB显存)+ 16GB内存,可流畅运行7B/8B模型。 - 其他版本:
-
1.5B:轻量级任务,适合小项目(4GB内存)。
-
32B:高端推理,需32GB内存+12GB显存。
-
-
-
模型选择 :根据任务复杂度选择,7B版本性价比高,适合通用场景。
三、运行与交互
-
本地运行
-
安装完成后,通过命令行输入模型名称(如
deepseek-r1:7b
)启动模型,成功后即可交互。 -
若需图形界面,可安装 ChatBox客户端 (支持浏览器插件或Docker),设置API地址为
http://localhost:11434
。
-
四、注意事项
-
环境优化 :使用官方代理(如Hugging Face Proxy)加速模型下载。
-
路径管理 :若需修改模型存储路径,需在PowerShell中设置环境变量
OLLAMA_MODELS
。
通过以上步骤,即可完成DeepSeek模型的本地部署与使用。