当前位置: 代码网 > it编程>前端脚本>Python > deepseek本地部署流程(解决服务器繁忙以及隐私等问题)

deepseek本地部署流程(解决服务器繁忙以及隐私等问题)

2025年02月17日 Python 我要评论
前文由于官网deepseek老是出问题所以我决定本地部署deepseek很简单,不需要有什么特殊技能正文开始ollama首先到这个ollama的官网goto-ollama然后点击中间这个大大的down

前文

由于官网deepseek老是出问题

所以我决定本地部署deepseek

很简单,不需要有什么特殊技能

正文开始

ollama

首先到这个ollama的官网

goto-ollama

然后点击中间这个大大的download

然后再次点击中间这个大大的download for windows

等待下载完成

下载完成

完成后去自己的下载目录文件夹里找下载好的文件,双击打开

点击install

等待安装完成

安装完成

安装完成后查看任务栏向上小箭头

羊驼图标就是ollama的进程

然后进行下一步(不要关ollama进程)

chatboxai

打开它的官网

goto-chatboxai

然后点击这个免费下载 (for windows)

下载开始,等待下载完成

下载完成

打开自己下载文件夹

双击打开下载好的文件

下一步

选个安装位置,点浏览

然后就会打开这个

在里面找好自己的目录,点确定

就会跳回这个界面,点安装

等待安装完成

安装完成后,点完成,稍等一会

就会出现这个界面(这就是以后跟deepseek对话的地方),关了它进行下一步骤

deepseek-r1

拉取模型需要在命令行里操作

同时按下win+r启动运行命令窗口

输入cmd

回车

出现这个(命令提示符)窗口,然后输入以下命令

ollama --version

然后就会出现如上提示

如果是这样的,那就说明你没输对命令,如果反复检查是输对了,那你只能回到ollama章节把那一章的内容重来一遍了

goto-ollama

然后再次回到ollama的官网(不要关闭命令提示符)

点击models(左上角)

然后自己选自己的ai,一般就是第一个显示的那个ai-deepseek-r1

点击deepseek-r1

点击下拉框选择适合自己的蒸馏版

选择哪个呢,在decide章节,自行阅读后选择

选好之后点击上图红框中的copy按钮

回到命令提示符中,点击右键复制内容

好了之后回车

等待拉取模型

模型拉取成功(这里的success表示成功)

然后在命令行里会出现send a message字样,然后不用管它了

下一步

组装

打开桌面上的chatboxai

点击设置

打开模型提供方下拉框

选择上图红框中这个ollama api

打开模型下拉框

可以看到这里有我们刚刚拉取的deepseek,选择它

保存

这里也变成自己刚刚拉取的ai了

然后输入一个试试

以后自己打开chatboxai就可以开始对话了

关闭会自己杀死ai进程

decide

  • cpu: 至少 8 核,推荐 16 核或以上。
  • gpu: 至少 16gb 显存,推荐 24gb 或以上(如 nvidia rtx 3090、a100 等)。
  • 内存: 至少 32gb,推荐 64gb 或以上。
  • 存储: 至少 100gb ssd,推荐 nvme ssd 以加快加载速度。
  • 小型蒸馏版: 适合低资源环境,显存需求约 8gb,内存需求约 16gb。(1.5b、7b、8b)
  • 中型蒸馏版: 显存需求约 16gb,内存需求约 32gb。(14b)
  • 大型蒸馏版: 显存需求约 24gb,内存需求约 64gb。(32b)
  • 需求配置更高的蒸馏版不推荐个人拉取本地部署使用
  • 实际配置可以更低,不过可能会降低配置根据配置自己选择即可
  • 好了,至此就完成了deepseek的本地部署了

总结

以上为个人经验,希望能给大家一个参考,也希望大家多多支持代码网。

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com