DeepSeek R1模型可通过官方GitHub仓库、Hugging Face平台或第三方社区(如ModelScope)下载,支持从1.5B到671B不同参数规格,满足个人到企业级需求。
-
官方渠道
- GitHub:访问DeepSeek-R1官方仓库获取完整版模型权重和部署指南,需配置Python环境并安装依赖库。
- Hugging Face:搜索“DeepSeek-R1”可直接加载量化版模型,适合快速体验。
-
第三方平台
- ModelScope:提供GGUF格式的量化模型(如1.5B/14B/32B),适配显存有限的设备,下载地址为ModelScope社区。
- Ollama工具链:通过命令
ollama run deepseek-r1:7b
在线下载或离线部署,支持断点续传。
-
版本选择建议
- 个人用户:优先选择1.5B或7B量化版,平衡性能与资源消耗。
- 企业级应用:推荐14B-32B版本,需24GB以上显存;671B满血版需高性能硬件支持。
-
部署注意事项
- 显存不足时可选用4-bit量化模型(如
q4_k_m
)。 - 首次运行需安装依赖库(如
pip install -r requirements.txt
),并参考官方文档优化显存分配。
- 显存不足时可选用4-bit量化模型(如
提示:下载前确认硬件兼容性,社区版模型可能更新滞后,建议优先通过官方渠道获取最新版本。