DeepSeek本地部署,再也不怕服务器崩
了!
最近国产大模型DeepSeek非常火,但
由于访问人数过多经常频繁出现反应迟缓
甚至是宕机的情况。
但万幸的是,DeepSeek是一个开源模型,
我们可以通过本地部署在自己的终端上随
时使用,而且部署到本地后无需联网即可
直接使用。
一:安装Ollama
如果想要在本地运行DeepSeek需要用
到Ollama这个工具,这是一个开源的本
地大模型运行工具。
我们可以访问https///进
入Ollama官网下载Ollama,下载时
有三个系统的安装包可选择,这里只需要
选择下载我们电脑对应的操作系统版本即
可,这里我选择的是Windows版本。
Ollama安装包下载完成后直接双击安装
即可,安装速度还是比较快的。
Ollama安装完成后需要打开电脑的
CMD,也就是命令提示符,只需要在电
脑下方的搜索框中输入cmd即可打开。
打开后在命令提示符窗口中输入ollama
help并按回车键,这个操作是为了验证这
个软件是否安装成功,如果没有报错的话
则表示这个软件安装成功。
二:下载部署Deepseek模型
回到https///网址中,在网
页上方搜索框中输入Deepseek-r1,这个
Deepseek-r1就是我们需要本地部署的
一个模型。
点击Deepseek-r1后会进入详情界面,
里面有多个参数规模可供选择,从1.5b
到671b都有。
需注意的是,这里我们需要根据自己电脑
的硬件配置来选择模型大小,下面是一个
模型大小配置参考表格,大家可根据自己
的电脑配置来自行选择,当然了,部署的
本地模型越大,使用的深度求索效果就越
好。
选择好模型规模后,复制右边的一个命令。
命令复制完成后回到命令提示符窗口,将
刚刚复制的命令粘贴到命令提示符窗口中
并按回车键即可下载模型。
模型下载完成后,我们就直接可以在命令
提示符面板中使用它了。
以后如果我们需要再次使用Deepseek
这个模型的话,我们可以直接打开命令提
示符窗口,只需要再次在命令符提示窗口
中输入上面复制的指令即可。
三:可视化图文交互界面Chatbox
虽然我们可以在本地正常使用Deepseek
这个模型了,但是这个AI工具的面板是
非常简陋的,很多人使用不习惯,这时我
们就可以通过Chatbox这个可视化图文
交互界面来使用它。
点击https//chatboxai.app/zh进入
Chatbox官网,Chatbox虽然有本地客
户端,但我们也可以直接使用网页版。
进入Chatbox网页版本后点击使用自己
的APIKey或本地模型。
点击后会进入模型提供方选择界面,这里
选择OllamaAPI。
这里需要注意的是,为了能够Ollama能
远程链接,这里我们最好看一下Chatbox
提供的教程,根据这个教程操作一下。
这个教程还是非常简单的,如果是
Windows操作系统则只需要配置一下环
境变量即可,配置完环境变量后需重启一
下Ollama程序。