单机版DeepSeek可通过Ollama命令行、API接口或第三方工具调用,无需联网即可实现流畅交互。
-
Ollama命令行调用
在本地安装Ollama后,下载DeepSeek模型(如deepseek-r1:1.5b
),通过运行ollama run deepseek-r1:1.5b
启动模型。在CMD中直接输入问题即可获得回复,适合基础交互需求,无需额外配置。 -
通过ChatBox客户端调用
安装ChatBox后,在软件内选择“Ollama”作为模型提供方,并配置DeepSeek模型路径。该方式将对话界面图形化,适合不熟悉命令行的用户,操作更直观。 -
Python脚本调用API
借助Python的subprocess
或requests
库,可编程式调用模型。例如,通过subprocess.run
执行ollama run
命令,或搭建本地Flask服务将请求转化为REST API调用,适合开发集成场景。 -
REST API调用(进阶)
通过Flask或FastAPI创建本地服务,监听特定端口(如http://localhost:5000/deepseek
),将用户输入转为JSON格式请求体发送至服务端,返回模型响应。适用于需要对接硬件设备(如ESP32)的自动化场景。 -
模型选择与硬件要求
根据硬件条件选择模型版本(如1.5b需RTX 3060,70b需双RTX 4090)。若显存不足,可尝试模型量化(如Q4_K_M)或使用轻量版本,确保流畅运行。
单机部署DeepSeek灵活便捷,用户可根据需求选择命令行、图形化工具或编程接口调用,满足从简单对话到复杂开发的多场景应用。