![DeepSeek本地部署保姆级教程,0基础有手就会! | AI工具集](https://ai-bot.cn/wp-content/uploads/2025/01/DeepSeek-R1-website.png)
美中不足的是,它访问量太大了,以至于经常罢工。
![DeepSeek本地部署保姆级教程,0基础有手就会! | AI工具集](https://ai-bot.cn/wp-content/uploads/2025/02/deepseek-local-deployment1.png)
很多人就开始用其他接入了R1的平台。有人就要问了,博主博主,其他接入R1的平台确实很强,但还是太吃Token了,有没有免费、又简单的方法用到DeepSeek R1呢?
有的兄弟,有的。
直接在电脑上本地部署R1,就可以!无需联网、不用担心数据泄露、完全免费,还可以搭建个人知识库,训练你的专属AI助理。
01
部署流程
本地部署只需要三步:
- 安装Ollama
- 下载DeepSeek-R1大模型
- 使用Cherry Studio调用模型
Ollama的模型库里的40多种开源模型,比如阿里云通义千问推出的大模型Qwen2.5,Meta公司最新的大模型Llama 3.3等等,都可以通过这套流程来本地部署。
操作简单,0基础有手就会,而且完全免费!
接下来我们一步一步还原一下本地部署DeepSeek-R1大模型的全过程。
02
安装Ollama
Ollama是一个在本地计算机上运行大模型的命令行工具,有了它,你就可以在本地跑大模型。
进入Ollama官网登录,点击Download。
Ollama安装包给大家打包好啦,扫码关注公众号回复:Ollama 领取
我用的是Windows系统,所以直接选择Windows的版本下载。
下载完点击安装,会默认安装在C盘,Windows版本不支持修改安装位置,所以我们无脑点“下一步”就行啦!
注意,安装完成后右下角会弹出提示框,点击“确认”,点击即可弹出窗口。
Ollama就安装成功啦。
03
部署DeepSeek R1模型
我们回到Ollama官网,点击左上角的“Models”进入模型库,点击DeepSeek-R1大模型。
Ollama提供7种不同参数的模型可供下载。
R1的模型参数是671B,差不多需要1300个G的显存,你才能跑得动满血版R1。
1.5B到70B是R1的蒸馏版,模型能力虽然不如满血版(参数数字越大能力越强),但是对硬件要求更低,在同规模的开源模型里表现也是很突出的,适合个人或企业本地部署。
我总结了一份DeepSeek-R1每个版本的配置要求的表格,大家可以对照选择:
这里我选择1.5B的模型,复制后面口令:ollama run deepseek-r1:1.5b
把口令粘贴进Ollama弹出的窗口中,按回车,就会开始下载模型。
静静等待进度条到100%,最后提示“success”,就说明下载完成了。
我们在命令行输入ollama run deepseek-r1:1.5b+问题,就能直接与AI对话。
但是这个界面看着太简陋了,而且每次提问都要复制一行命令,也不太方便。
接下来我们通过客户端来优化这个问题。
04
通过Cherry Studio调用模型
Cherry Studio是一款开源的多模型桌面客户端。它可以直接调用主流的大模型,比如OpenAI、Gemini,和本地模型。
像这样开源、好用的客户端还有Chatbox AI、AnythingLLM等等。
官方也整理过一份实用集成文件,可以帮我们更好地应用DeepSeek。
这里我们以Cherry Studio为例,一起操作一下。
进入Cherry Studio官网的下载界面,可以点击立即下载,或者从网盘链接下载。
安装步骤也是直接点下一步即可。
安装后点击左下角的设置。
在模型服务里选择Ollama,点亮右上角的启用,API密钥会自动填写,然后点击管理。
可以看到本地已经安装好的DeepSeek-R1模型,点击右边的+号。
我们返回到首页,点击页面上方显示的模型名称。
点击选择我们本地部署的DeepSeek-R1:1.5B。
就可以跟AI正常对话啦。
1.5B的模型泛用性不是太强,适合做一些简单的问答,如果想要将本地部署的R1应用在工作中,推荐7B或者更高参数的版本。
本地部署DeepSeek,有响应及时、免费、个性化程度高的优势,但是对配置有一定的要求,有合适的设备可以试试。
学会这个步骤,你可以在本地部署任意一款开源的大模型,快去试试吧!
本文涉及的所有工具:
Ollama:https://ai-bot.cn/sites/5973.html
Cherry Studio:https://ai-bot.cn/cherry-studio/