当前位置: 代码网 > it编程>操作系统>苹果Mac > mac本地搭建ollama

mac本地搭建ollama

2024年08月02日 苹果Mac 我要评论
简介:ollama-webUI是一个功能强大的开源项目,简化了安装部署过程,并能直接管理各种大型语言模型(LLM)。本文将介绍如何在你的macOS上安装Ollama服务并配合webUI调用api来完成聊天。

mac本地搭建ollama webui

*简介:ollama-webui是一个开源项目,简化了安装部署过程,并能直接管理各种大型语言模型(llm)。本文将介绍如何在你的macos上安装ollama服务并配合webui调用api来完成聊天。

开源地址

环境要求

  • macos系统
  • nodejs >= 18
  • 没错,其他的都不需要了

目标

  • 运行ollama
  • 启用webui
  • 启用api服务
  • 启用rag

安装ollama

  • 官网直接安装,ollama官网
  • 选择macos,点击download for mac下载
  • 得到的是个压缩包,解压,然后一路next
  • 安装完成,直接使用
  • 系统可会默认启动ollama,在电脑的右上角能看到这个标记,如果没有,看请下一步在这里插入图片描述

在命令行使用ollama

  • 打开终端,输入ollama -h,查看到所有的命令。
  • 点击这里搜索你需要的模型,然后直接启动,例如:ollama run llama3,可看到下载速度非常快,取决于你的宽带。在这里插入图片描述
  • 下载完成,现在可以与他聊天了在这里插入图片描述
  • control + d退出聊天

调用ollama的api

  • ollama提供api的形式调用,直接查看官网文档

  • ollama serve启动服务,发现端口被占用在这里插入图片描述
    需要点击电脑右上角的ollama图标来退出ollama,再来运行ollama serve在这里插入图片描述

  • ollama服务默认是http://127.0.0.1:11434,目前在macos上修改ip和端口无效,官方未解决(2024-5-9)。

  • 调用api会出现跨域,所以需要做一个服务端。我已经做好了,点击查看源码,感谢star

安装ollama-webui和serve

  • git clone https://github.com/812781385/ollama-webui.git
  • cd client
  • pnpm i
  • 修改.env 里的vite_app_axios_base_url 为自己的ip地址
  • npm run dev 运行webui
  • cd serve
  • npm i
  • npm run dev 运行服务端
  • 浏览器访问http://localhost:8080/在这里插入图片描述
  • 点击设置按钮,打开设置对话框,输入模型名称,例如:qwen:0.5b,点击按钮开始拉取模型在这里插入图片描述在这里插入图片描述
  • 选择刚刚拉取好的模型后,点击确定。就可以开始聊天了在这里插入图片描述

使用rag

什么是rag,例如你问ai:你的名字叫什么?,他会告诉你他是个ai模型…,这不是我想要的答案,怎么办?有两种方式,1.训练自己的模型。2.在prompt里嵌入自己的文案。例如:你的名字叫小虎,请参考这个问题来回答: 你的名字叫什么,这时候他会回答,他的名字叫小虎。

  • 如果你要使用rag,请先安装chroma数据库,点击查看官网文档
  • chroma run 启动数据库服务
  • 你还需拉取ollama的嵌入式模型mxbai-embed-large,点击查看官网文档
  • 然后调用serve/app/router里的接口,添加数据router.post('/adddata', controller.chat.adddatafordb);
  • 在webui的设置对话框里,开启rag开关,就可以聊天了

模型推理内存损耗

  • 以llama2为例计算
    在这里插入图片描述

视频演示

播放

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com