当前位置: 代码网 > it编程>编程语言>其他编程 > DeepSeek-R1本地部署的极简教程

DeepSeek-R1本地部署的极简教程

2025年03月10日 其他编程 我要评论
环境本人在本地部署了两个版本的deepseek-r1,分别为8b和14b版本。其中8b可以流畅推理,14b版本推理速度会慢一点,平均等待时间10-20秒。环境为cpu:amd 3100gpu:rtx

环境

本人在本地部署了两个版本的deepseek-r1,分别为8b和14b版本。其中8b可以流畅推理,14b版本推理速度会慢一点,平均等待时间10-20秒。

环境为

cpu:amd 3100
gpu:rtx 3060 8g
memory:16g
system: win11

部署

1.安装 ollama

首先进入 ollama 官网 https://ollama.com/

ollama 首页

然后点击download,选择本地电脑对应的版本

选择 ollama 版本

下载后进行安装。

注意:安装时默认使用c盘,确保你的c盘有足够多的空间可以安装 ollama 及后续的大模型,建议c盘空间 ≥ 12g 

安装后在电脑开始页面启动 ollama,然后查看任务栏,有 ollama 图标意味着 ollama已经启动。

我们回到 ollama 官网,在搜索栏搜索 deepseek-r1

任务栏选择deepseek-r1

选择适合自己的版本,注意右侧的gb代表磁盘容量,确保c盘有足够的磁盘容量。
如果你的电脑和我配置差不多可以尝试8b,
拥有12g以上的显存使用14b版本应该可以流畅运行,
更多的参数量,例如32b建议使用3090或4090。

在这里插入图片描述

2.部署 deepseek-r1

使用下面命令进行安装,8b代表选择8b的版本

ollama run deepseek-r1:8b

随后打开任务管理器(记得用管理员),然后输入命令进行部署,本地会下载对应的模型。

在这里插入图片描述

出现下面情况代表安装完成,当然可能会出现超时问题,重新运行上面部署代码即可

在这里插入图片描述

然后使用/?/help进行测试。

在这里插入图片描述

最后展示下效果

在这里插入图片描述

到此这篇关于deepseek-r1本地部署指南极简版的文章就介绍到这了,更多相关deepseek-r1本地部署内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网!

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com