当前位置: 代码网 > 服务器>服务器>Linux > 带3090显卡的Linux服务器上部署SDWebui

带3090显卡的Linux服务器上部署SDWebui

2024年08月06日 Linux 我要评论
一直在研究文生图,之前一直是用原始模型和diffuser跑SD模型,近来看到不少比较博主在用 SDWebui,于是想着在Linux服务器上部署体验一下,谁知道并没有想象的那么顺利,还是踩了不少坑。记录一下过程,也许能帮忙有同样需求的朋友。

背景

一直在研究文生图,之前一直是用原始模型和diffuser跑sd模型,近来看到不少比较博主在用 sdwebui,于是想着在linux服务器上部署体验一下,谁知道并没有想象的那么顺利,还是踩了不少坑。记录一下过程,也许能帮忙有同样需求的朋友。

安装

  1. 在linux服务器上建立conda 虚拟环境及对应目录,并下载代码仓。
conda create -n sdwebui python=3.10.6
conda activate sdwebui
mkdir sdwebui
cd sdwebui
git clone https://github.com/automatic1111/stable-diffusion-webui.git

在huggingface上下载三个模型文件(sd_xl_base_1.0.safetensors,sd_xl_refiner_1.0.safetensors,sdxl_vae.safetensors),分别放到models下的不同目录下,放完之后,目录结构如下:
在这里插入图片描述
2. 安装依赖环境

python -m pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 xformers
python -m pip install requirements.txt
python -m pip install -r requirements_versions.txt
  1. 下载openai clip相关, 使用国内镜像即可:
mkdir openai
cd openai
git clone https://www.modelscope.cn/ai-modelscope/clip-vit-large-patch14.git

在这里插入图片描述

  1. 编辑 launch.py文件,在文件的上方插入下面几行:
import os
os.environ["pytorch_cuda_alloc_conf"] = "max_split_size_mb:512"
os.environ['cuda_launch_blocking'] = '1'
  1. 启动webui
python launch.py --skip-torch-cuda-test --xformers --precision full --no-half --always-batch-cond-uncond --opt-split-attention

在这里插入图片描述

  1. 使用webui
    6.1 构建本地pc 和 远端服务器的端口映射:
    ssh -l 7860:localhost:7860 用户名@linux服务器ip
    6.2 打开浏览器,输入http://localhost:7860/ 或者 http://127.0.0.1:7860/, 既可以得到如下页面,开始体验吧。
    在这里插入图片描述
(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com