当前位置: 代码网 > it编程>操作系统>苹果Mac > MAC快速本地部署Deepseek的实现步骤

MAC快速本地部署Deepseek的实现步骤

2025年02月24日 苹果Mac 我要评论
下载安装ollama地址:https://ollama.com/ollama 是一个开源的大型语言模型(llm)本地运行框架,旨在简化大模型的部署和管理流程,使开发者、研究人员及爱好者能够高效地在本地

下载安装ollama

地址: https://ollama.com/ollama 是一个开源的大型语言模型(llm)本地运行框架,旨在简化大模型的部署和管理流程,使开发者、研究人员及爱好者能够高效地在本地环境中实验和集成最新模型
一路下一步
安装好后
搜索需要的大模型

在这里插入图片描述

2. 根据自己需求, 选择合适的大模型版本

3. 本地电脑配置较差,我安装的14b

地址:

在这里插入图片描述

4. 复制命令 ollama run deepseek-r1:14b 到终端运行

在这里插入图片描述

在这里插入图片描述

看到 success就成功了

可以开始对话了 (首次较慢)

在这里插入图片描述

进阶

不想用黑窗口的话 可以下载cherry studio
cherry studio 是一款开源的多模型 ai 桌面客户端,专为专业用户设计,支持跨平台操作(windows/macos/linux),集成 300+ 大语言模型和本地化部署能力,旨在简化 ai 技术的应用流程,提升工作效率
简单配置就能使用了(网上教程可多 就不赘述了)

到此这篇关于mac快速本地部署deepseek的实现步骤的文章就介绍到这了,更多相关mac本地部署deepseek内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网!

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com