安装Ollama并配置网络
要实现本地部署的DeepSeek联网,需完成以下步骤:
一、环境准备
-
安装Ollama框架
下载对应操作系统的Ollama安装包(官网:https://ollama.com),安装后通过命令行验证安装成功(如输入
ollama --version
)。 -
下载DeepSeek模型
在Ollama命令行中运行
ollama run deepseek-r1
下载7B或14B参数的模型。若需其他版本,可指定参数如deepseek-r1:14b
。
二、网络配置
-
开放防火墙端口
-
在服务器防火墙中开放DeepSeek使用的端口(默认8080)。
-
若使用Windows,可通过系统属性 -> 高级系统设置 -> 网络和共享中心 -> 防火墙 -> 允许应用通过防火墙 -> 添加规则。
-
-
配置代理服务器(可选)
若网络需代理访问,需设置环境变量:
- Windows:
set HTTP_PROXY=http://代理地址:端口
和HTTPS_PROXY=https://代理地址:端口
。
- Windows:
三、联网工具选择与配置
-
使用浏览器插件(推荐)
-
Page Assist :支持Chrome、Firefox等浏览器,提供侧边栏界面与本地模型交互。
- 安装后,在插件设置中选择已运行的Ollama和DeepSeek模型,开启联网功能。
-
替代方案 :AnythingLLM等插件也可实现类似功能,但配置步骤可能略有不同。
-
-
直接在浏览器访问(需公网IP)
- 配置服务器网络为公网IP(如通过NAT穿透工具),直接在浏览器输入
http://公网IP:8080
访问。
- 配置服务器网络为公网IP(如通过NAT穿透工具),直接在浏览器输入
四、测试与优化
-
基础测试
打开浏览器,输入配置的地址(如
http://123.456.789:8080
),若能加载DeepSeek界面,说明网络配置正确。 -
优化建议
-
使用CDN加速静态资源加载。
-
定期更新模型索引以提高搜索准确性。
-
调整模型参数平衡性能与资源占用。
-
注意事项
-
安全性 :开放端口可能带来安全风险,建议仅允许受信任设备访问。
-
兼容性 :部分浏览器插件需手动安装(如Firefox),按官方指引操作即可。
通过以上步骤,本地部署的DeepSeek即可实现联网功能,享受大模型带来的能力。