DeepSeek R1的开源模型可以通过以下几种方式接入:
- 本地部署 :
-
硬件要求 :需要4GB以上显存的显卡。
-
软件准备 :安装Ollama运行环境,选择合适的用户界面(UI)和稳定的网络环境。
-
部署步骤 :
-
下载并安装Ollama。
-
拉取DeepSeek-R1模型,根据量化后的大小选择合适的模型版本。
-
使用Ollama运行模型,例如输入命令
ollama run deepseek-r1:1.5b
加载默认的1.5B模型。 -
腾讯云HAI接入 :
- 操作步骤 :
-
登录腾讯云HAI,点击“立即使用”新建DeepSeek-R1应用。
-
创建完成后,通过站内信获取密码,选择可视化界面(ChatbotUI)或命令行(JupyterLab)直接调用模型。
-
可视化界面调用方法:在HAI控制台选择“算力连接”->“ChatbotUI”,在新窗口中操作。
-
命令行调用方法:在HAI控制台选择“算力连接”->“JupyterLab”,新建一个“Terminal”,输入命令
ollama run deepseek-r1
加载默认的1.5B模型,也可以输入其他模型大小参数切换模型。 -
DeepSeek官网或App :
- 操作步骤 :
-
登录DeepSeek官网或官方App。
-
打开“深度思考”模式,即可调用最新版DeepSeek-R1完成各类推理任务。
-
API调用 :
- 操作步骤 :
- 设置model='deepseek-reasoner'即可调用DeepSeek-R1模型。
建议
-
本地部署 适合需要高自主控制权和数据私密性的用户,但需要确保硬件配置满足要求。
-
腾讯云HAI接入 适合希望快速部署和调用模型的开发者,可以省去许多繁琐的配置步骤,但需要依赖腾讯云服务。
-
DeepSeek官网或App 适合日常使用或快速推理任务,无需额外安装和配置。
-
API调用 适合需要将DeepSeek-R1集成到现有应用或系统中的开发者。
根据你的具体需求和资源情况,可以选择最适合的接入方式。