当前位置: 代码网 > it编程>前端脚本>Python > 【个人开发】llama2部署实践(三)——python部署llama服务(基于GPU加速)

【个人开发】llama2部署实践(三)——python部署llama服务(基于GPU加速)

2024年08月01日 Python 我要评论
gcc:9.4.0cuda:11.8以上,End。

1.python环境准备

注:llama-cpp-python安装一定要带上前面的参数安装,如果仅用pip install装,启动服务时并没将模型加载到gpu里面。

# cmake_args="-dllama_metal=on" force_cmake=1 pip install llama-cpp-python
cmake_args="-dllama_cublas=on" force_cmake=1 pip install llama-cpp-python

pip install uvicorn
pip install starlette
pip install fastapi
pip install sse_starlette
pip install starlette_context
pip install pydantic_settings

2.llama-cpp-python安装报错

报错踩坑1:
安装llama-cpp-python过程出现报错

解决方法1:
网上找到采用离线安装到方式,可以成功安装,但是高兴得太早了。

wget https://github.com/abetlen/llama-cpp-python/releases/download/v0.2.56/llama_cpp_python-0.2.56-cp311-cp311-manylinux_2_17_x86_64.whl
pip install llama_cpp_python-0.2.56-cp311-cp311-manylinux_2_17_x86_64.whl
# 参考链接:https://blog.csdn.net/qq_38463737/article/details/136477026

坑1:
虽然可以成功安装,但是启动llama服务的时候,没法用到gpu加速。

报错踩坑2:
倒腾了很久,看报错一直是cmake对问题,寻思着可能是gcc版本的问题,将gcc升级到13.1。但还是出现报错:

在这里插入图片描述
或者其他诸如的报错【报错太多,没法全记录下来】

看上面的报错compiling the cuda compiler identification source file “cmakecudacompilerid.cu” failed。感觉像是cuda跟gcc版本的不兼容问题。

解决方法2:
捣鼓了很久,后来参考了一些成功安装的经验,最后选择gcc-9.4.0版本
附带一下gcc版本安装步骤:

## 安装
tar xf gcc-9.4.0.tar.xz
cd gcc-9.4.0/
./contrib/download_prerequisites
mkdir build && cd build
../configure --prefix=/usr/local/gcc-9.4.0 --enable-bootstrap --enable-checking=release --enable-languages=c,c++ --disable-multilib
make -j16 # 我这里服务器是16核,这里根据服务器核数修改并行度。
make install 

## 配置环境变量
export gcc_me_home=/usr/local/gcc-9.4.0/
path=$gcc_me_home/bin:/usr/local/bin:$path
export path
ld_library_path=$gcc_me_home/lib:$gcc_me_home/lib64:/usr/local/lib:/usr/local/lib64:/usr/lib64:/lib64:$ld_library_path
export ld_library_path
export cc=$gcc_me_home/bin/gcc
export cxx=$gcc_me_home/bin/g++

报错踩坑2:
后来还遇到这个问题

在这里插入图片描述

估摸着应该是cxx变量没加载的原因,重新加载环境变量,安装。

3.服务启动

python3 -m llama_cpp.server --model /data/opt/llama2_model/llama-2-7b-bin/ggml-model-f16.bin --n_threads 30 --n_gpu_layers 200

在这里插入图片描述
在这里插入图片描述
终于加载到gpu里面!
在这里插入图片描述

4.总结

当前环境各组件版本:

  • gcc:9.4.0
  • cuda:11.8
  • python:3.11.4
  • llama_cpp_python:0.2.56

以上,end

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com