20240203在Ubuntu20.04.6下配置stable-diffusion-webui.git

20240203在Ubuntu20.04.6下配置stable-diffusion-webui.git
2024/2/3 11:55

【结论:在Ubuntu20.04.6下,生成512x512分辨率的图像,大概需要11秒钟!】
前提条件,可以通过技术手段上外网!^_
首先你要有一张NVIDIA的显卡,比如我用的PDD拼多多的二手GTX1080显卡。【并且极其可能是矿卡!】800¥
2、请正确安装好NVIDIA最新的545版本的驱动程序和CUDA、cuDNN。
2、安装Torch
3、配置whisper


【本文以这个教程为主】
https://www.bilibili.***/read/cv24784581/
Stable Diffusion云服务器部署完整版教程


【这个没有走通】
https://www.toutiao.***/article/7222852915286016544/
从零开始,手把手教本地部署Stable Diffusion AI绘画 V3版 (Win最新)


(二)配置运行环境
利用anaconda是它集成了很多我们需要的安装包,只要安装它一个,python下载、环境配置那些都不用我们再去设置,使用起来比较方便。

1、配置Anaconda
1、下载anaconda【深圳联通下载不了】
wget https://mirrors.tuna.tsinghua.edu.***/anaconda/archive/Anaconda3-2023.03-0-Linux-x86_64.sh

若遇到这种不能下载的,前面加上 -U NoSuchBrowser/1.0
wget -U NoSuchBrowser/1.0 https://mirrors.tuna.tsinghua.edu.***/anaconda/archive/Anaconda3-2023.03-0-Linux-x86_64.sh


2.安装anaconda,提示enter按回车,提示yes or no的地方全部输入yes即可。vscode不安装
bash Anaconda3-2023.03-0-Linux-x86_64.sh

【不需要修改】
3.找到.bashrc这个文件并修改,修改文件有两种方式:
①通过vim修改。
#用vim打开.bashrc文件
vim ~/.bashrc
#再按i开始insert,将以下内容添加到文件最后一行
export PATH=$PATH:/home/ubuntu/anaconda3/bin
#按Esc并输入:wq即为保存退出文件再保存退出
:wq
②也可以通过编辑器修改,找到.bashrc文件直接输入内容即算保存


4.如果输入conda,提示找不到命令的话执行下source,(执行一次即可,以后都不用再 source 了,启动 Ubuntu会自动source)
source ~/.bashrc
然后验证下
conda info

至此anaconda已经安装完毕


2、安装pytorch
1.去pytorch官网配置自己服务器所需要的pytorch
pytorch官网
https://pytorch.org/
https://pytorch.org/get-started/locally/

Pytorch build选择stable稳定版,操作系统是linux,由于上面我安装了anaconda所以package选择conda,语言python,我的CUDA是12.0所以选择了CUDA11.8,最后获取***and
conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c pytorch -c nvidia


2、pytorch需要安装到anaconda的虚拟环境中,所以使用conda时需要先有一个虚拟环境并进入

#若还没有虚拟环境需要创建一个,<env_name>是环境名称,python选择指定的版本,sd需要的python>3.10 #conda create -n <env_name> python=x.xx.x
conda create -n sd python=3.10.11

#启动虚拟环境,activate就是启动,sd是环境名称
conda activate sd

然后再执行pytorch的安装
conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia

如果出现提示需要升级conda版本的就输入,没有的话就跳过这步。我这里没截到图,会有个wanning的,注意看

conda update -n base -c defaults conda
验证安装结果

#首先要启动我们的sd虚拟环境,因为我们所有与stable diffusion有关的配置环境都是建立在这个虚拟环境之下的python,pytorch等都是如此
#进入虚拟环境
conda activate sd

#进入python环境
python

#导入torch
import torch

#查看torch的版本
torch.__version__  #各有两条下划线

#查看cuda版本
torch.version.cuda

#查看GPU是否运行
torch.cuda.is_available()

#退出
exit()


(三)安装sd-webui
1、启动sd
1.将sd webui clone到服务器上,此处我用了镜像。【下载异常了】
git clone https://github.moeyy.xyz/https://github.***/AUTOMATIC1111/stable-diffusion-webui.git

(sd) rootroot@rootroot-X99-Turbo:~$ 
(sd) rootroot@rootroot-X99-Turbo:~$ git clone https://github.***/AUTOMATIC1111/stable-diffusion-webui.git
Cloning into 'stable-diffusion-webui'...
remote: Enumerating objects: 31156, done.
remote: Counting objects: 100% (159/159), done.
remote: ***pressing objects: 100% (100/100), done.
remote: Total 31156 (delta 81), reused 110 (delta 48), pack-reused 30997
Receiving objects: 100% (31156/31156), 33.66 MiB | 7.55 MiB/s, done.
Resolving deltas: 100% (21819/21819), done.
(sd) rootroot@rootroot-X99-Turbo:~$ du -sh stable-diffusion-webui/
39M    stable-diffusion-webui/
(sd) rootroot@rootroot-X99-Turbo:~$ 

(sd) rootroot@rootroot-X99-Turbo:~$ tar zcvf stable-diffusion-webui99.tar.gz stable-diffusion-webui/

【不处理】
2.链接换源。打开stable-diffusion-webui/modules/launch.until.py文件,替换以下内容
torch_***mand = os.environ.get('TORCH_***MAND', "pip install torch==2.0.1 torchvision==0.15.2")

【不处理】
3.每个https://github.***/  (就在上一步的下面几行,每一个网址都要改)链接前面添加https://ghproxy.***/,替换为以下内容

gfpgan_package = os.environ.get('GFPGAN_PACKAGE', "https://ghproxy.***/https://github.***/TencentARC/GFPGAN/archive/8d2447a2d918f8eba5a4a01463fd48e45126a379.zip")
clip_package = os.environ.get('CLIP_PACKAGE', "https://ghproxy.***/https://github.***/openai/CLIP/archive/d50d76daa670286dd6cacf3bcd80b5e4823fc8e1.zip")
openclip_package = os.environ.get('OPENCLIP_PACKAGE', "https://ghproxy.***/https://github.***/mlfoundations/open_clip/archive/bb6e834e9c70d9c27d0dc3ecedeebeaeb1ffad6b.zip")
stable_diffusion_repo = os.environ.get('STABLE_DIFFUSION_REPO', "https://ghproxy.***/https://github.***/Stability-AI/stablediffusion.git")
taming_transformers_repo = os.environ.get('TAMING_TRANSFORMERS_REPO', "https://ghproxy.***/https://github.***/***pVis/taming-transformers.git")
k_diffusion_repo = os.environ.get('K_DIFFUSION_REPO', 'https://ghproxy.***/https://github.***/crowsonkb/k-diffusion.git')
codeformer_repo = os.environ.get('CODEFORMER_REPO', 'https://ghproxy.***/https://github.***/sczhou/CodeFormer.git')
blip_repo = os.environ.get('BLIP_REPO', 'https://ghproxy.***/https://github.***/salesforce/BLIP.git')


4.先进入虚拟环境

#启动虚拟环境,因为刚刚上面我们已经创建过虚拟环境了
conda activate sd
5.先定位到的stable-diffusion-webui项目下

cd stable-diffusion-webui
6.第一次启动sd,sd会安装基础的配置,这里等待一段时间,网速慢的个把小时,所需要的内容才会下载完毕。

#以下两者都是启动公网环境,二选一执行即可。
./webui.sh --listen #(推荐)

#或者加--share也可以
./webui.sh --share

#listen与share的区别在于listen启动的地址是0.0.0.0:7860,而share启动后是一个随机的地址。
7.第一次执行会自动下载“v1-5-pruned-emaonly.safetensors”这个模型,如果下载速度还行就耐心等待,如果网络慢的同学,可以先“ctrl+C”断开下载步骤,然后到C站随便下个大模型上传上去。

2、打开webui
后续我们启动stable diffusion时分为3个步骤:

#启动虚拟环境 conda activate sd #定位到sd根目录 cd stable-diffusion-webui #加listen是启动公网环境 ./webui.sh --listen

#启动虚拟环境
conda activate sd

#定位到sd根目录
cd stable-diffusion-webui

#加listen是启动公网环境
./webui.sh --listen
然后等待有出现http:/0.0.0.0:7860就说明已启动成功
。浏览器访问http://x.x.x.x(云主机公网ip):7860,出现stable diffusion内容即为成功。

webui界面

模型下载之后直接放到目录:Z:\stable-diffusion-webui\openai\clip-vit-large-patch14

https://huggingface.co/openai/clip-vit-large-patch14/tree/main
openai/clip-vit-large-patch14

(base) rootroot@rootroot-X99-Turbo:~$ cd stable-diffusion-webui/openai/clip-vit-large-patch14/
(base) rootroot@rootroot-X99-Turbo:~/stable-diffusion-webui/openai/clip-vit-large-patch14$ ll
total 6686128
drwx------ 2 rootroot rootroot       4096 2月   3 11:25 ./
drwxrwxr-x 3 rootroot rootroot       4096 2月   3 11:23 ../
-rwx------ 1 rootroot rootroot       4519 2月   3 11:11 config.json*
-rwx------ 1 rootroot rootroot 1710486359 2月   3 11:17 flax_model.msgpack*
-rwx------ 1 rootroot rootroot       1229 2月   3 11:11 .gitattributes*
-rwx------ 1 rootroot rootroot     524619 2月   3 11:11 merges.txt*
-rwx------ 1 rootroot rootroot 1710540580 2月   3 11:17 model.safetensors*
-rwx------ 1 rootroot rootroot        316 2月   3 11:12 preprocessor_config.json*
-rwx------ 1 rootroot rootroot 1710671599 2月   3 11:17 pytorch_model.bin*
-rwx------ 1 rootroot rootroot       7947 2月   3 11:11 README.md*
-rwx------ 1 rootroot rootroot        389 2月   3 11:12 special_tokens_map.json*
-rwx------ 1 rootroot rootroot 1711114176 2月   3 11:17 tf_model.h5*
-rwx------ 1 rootroot rootroot        905 2月   3 11:13 tokenizer_config.json*
-rwx------ 1 rootroot rootroot    2224003 2月   3 11:12 tokenizer.json*
-rwx------ 1 rootroot rootroot     961143 2月   3 11:13 vocab.json*

(base) rootroot@rootroot-X99-Turbo:~/stable-diffusion-webui/openai/clip-vit-large-patch14$ 
(base) rootroot@rootroot-X99-Turbo:~/stable-diffusion-webui/openai/clip-vit-large-patch14$ 
 


【时间的关系,未完待续!】
(四)小结
虽然webui已经启动,但是我们可以看到页面下边的配置
version:当前webui的版本,我在写这份文档时最新版本就是1.4,当你们看到这份文档的时候注意使用最新版本的。
python:版本是3.10.11,这个版本会比较合适,既能用xformers,刚刚安装又不会报错,我试过3.10.12、3.11这些版本,会出现安装不上,至于原因我没去深入研究,你们想要用最新版本的话就研究下怎么配置。
torch:2.0.1+cu117,sd会用到的神经网络和cuda版本,这里我cuda只有117,但是上面我安装的cuda是11.8。我不知道为什么会降一个版本,有大佬懂得话可以评论区解答下。
xformers:N/A,等会会安装这个,能提升出图速度。
gradio:这个是AI的界面,可以不用管。
checkpoint:这个是大模型,我们还没下载,后面步骤会下载。

二、webui-user.sh文件配置
三、extensions换源
四、CheckPoint的下载
五、LoRA的下载与安装
六、VAE的下载与安装
七、Control***的下载与安装
八、Clip skip的配置
九、hyper***works的下载与安装(选装)
去模型网站上下载hyper***works的模型,然后上传到sd/models/hyper***works文件夹中,然后在webui界面点击刷新就可以看到了
十、插件的使用
十一、其他
(一)可下载模型的网站
https://civitai.***/
https://huggingface.co/
https://www.liblibai.***/
https://www.liandange.***/
https://i-desai.***/#/
https://aig***afe.***/
(二)如何让服务器不断开连接
(三)其他
#定位到models中的Stable-diffusion
cd stable-diffusion-webui/models/Stable-diffusion

#用wget命令来下载sd-v1-4模型
wget https://huggingface.co/***pVis/stable-diffusion-v-1-4-original/resolve/main/sd-v1-4.ckpt

#如果出现SSL无法连接,那么加上–-no-check-certificate
wget –-no-check-certificate https://huggingface.co/***pVis/stable-diffusion-v-1-4-original/resolve/main/sd-v1-4.ckpt

#如果文件太大,一次性没办法下载完,可以加上断点续传
wget –-no-check-certificate --continue https://huggingface.co/***pVis/stable-diffusion-v-1-4-original/resolve/main/sd-v1-4.ckpt

十二、总结


百度:PyTorch官网
https://blog.csdn.***/K_Kelly_/article/details/131926980
安装pytorch纯小白教程||重点是要注意版本!
nvidia-smi
https://pytorch.org/
https://pytorch.org/get-started/locally/


https://blog.csdn.***/qq_40641338/article/details/128307575
ubuntu配置cuda环境三:安装PyTorch

https://blog.csdn.***/orinhshdh/article/details/134806663?spm=1001.2101.3001.6650.3&utm_medium=distribute.pc_relevant.none-task-blog-2%7Edefault%7EYuanLiJiHua%7EPosition-3-134806663-blog-128307575.235%5Ev43%5Epc_blog_bottom_relevance_base1&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2%7Edefault%7EYuanLiJiHua%7EPosition-3-134806663-blog-128307575.235%5Ev43%5Epc_blog_bottom_relevance_base1&utm_relevant_index=6
https://blog.csdn.***/orinhshdh/article/details/134806663
Ubuntu22.04.3安装pytorch12.1和tensor flow2.15.0


https://blog.csdn.***/UCB001/article/details/130039154
2023-05-06 16:25:18 最详细的Ubuntu服务器搭建Stable-Diffusion教程(无显卡,仅用CPU)

报错gnutls_handshake() failed: The TLS connection was non-properly terminated
解决办法:在执行时使用http而不是https,替换
git clone https://github.***/Stability-AI/stablediffusion.git

为:
git clone http://github.***/Stability-AI/stablediffusion.git

百度:Downloading: "https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned-emaonly
出问题请看这里的解决方法:
https://zhuanlan.zhihu.***/p/666288849
2023-11-11 23:50_Stable Diffusion webui 服务器搭建环境&避坑指南

模型库下载:
https://huggingface.co/openai/clip-vit-large-patch14/tree/main
openai/clip-vit-large-patch14


百度:no module 'xformers'. Processing without...
https://blog.csdn.***/qq_27144923/article/details/130787220
【Stable-Diffusion-webui】No module ‘xformers‘. Proceeding without it. 问题解决方法(Windows)
打开项目目录下launch.py文件,找到:
***mandline_args = os.environ.get('***MANDLINE_ARGS', "")

修改为:
***mandline_args = os.environ.get('***MANDLINE_ARGS', "--xformers")


https://blog.csdn.***/GranteZhou/article/details/131808110
安装stable-diffusion的错误 xformers 安装解决
pip install xformer


https://www.fujieace.***/ai/no-module-xformers.html
No module ‘xformers’ 原因与解决方法

百度:Running on local URL:  http://0.0.0.0:7860
在浏览器中输入:http://0.0.0.0:7860
即可开工了!


参考资料:
http://www.ai2news.***/blog/3071169/
超易用的国产文档问答项目: langchain-ChatGLM
准备环境
按项目说明,需要安装 python 3.8,又因为使用GPU推理,所以需要手工安装torch 2.0.1 + cuda
torch 需要请自行下载cuda对应的版本 https://mirror.sjtu.edu.***/pytorch- wheels/cu117/?mirror_intel_list
Running on local URL:  http://0.0.0.0:7860  

百度:ubuntu stable-diffusion
https://www.bilibili.***/read/cv19811242/
【AI绘画】A卡RX580用户在Ubuntu下配置Stable-Diffusion实战(小白纯享版)


百度:git clonne repositories/generative-models
https://www.zhihu.***/question/577067020/answer/3190606301
Stable Diffusion 本地部署方法是什么?

(一)去github上下载stable-diffusion-webui-master.zip
我当时的下载链接如下:
https://codeload.github.***/ThranduilELFKING/stable-diffusion-webui/zip/refs/heads/master
(二)我解压在了本地D盘解压后路径是D:\stable-diffusion-webui-master


https://www.bilibili.***/read/cv24574966/
截止至2023-06-25 最新免魔法stable-diffusion-webui的本地安装部署方法。
一.确认本地部署硬件达到条件。(要求win10,win11等等,具体网上搜一下一大堆)


百度:stable_diffusion_xl_repo = os.environ.get('STABLE_DIFFUSION_XL_REPO', "https://github.***/Stability-
Cloning Stable Diffusion XL into /home/rootroot/stable-diffusion-webui/repositories/generative-model
Cloning into '/home/rootroot/stable-diffusion-webui/repositories/generative-models'...

https://www.bilibili.***/read/cv23306752/
Stable Diffusion WebUI下载repositories超时的问题


https://www.iotword.***/10657.html
stable-diffusion-webui手动安装详细步骤(以及报错解决、踩坑)

https://blog.csdn.***/weixin_40660408/article/details/130139799
stable-diffusion-webui手动安装详细步骤(AMD显卡)


https://www.bilibili.***/read/cv18936264/
在本地部署stable-diffusion-webui
https://www.bilibili.***/video/BV1vN4y1P7nW/?vd_source=4a6b675fa22dfa306da59f67b1f22616
AI猫雷教你快速在本地部署全功能版Stable Diffusion和Waifu Diffusion


百度:sd git clone /stable-diffusion-webui.git 
conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia 网络
Solving environment: failed with repodata from current_repodata.json, will retry with next repodata 


https://www.bilibili.***/read/cv29388784/?jump_opus=1
【教程】利用whisper模型自动生成英文粗字幕


https://blog.csdn.***/qq_43223007/article/details/130194585
本地部署Stable Diffusion Webui AI 记录


百度:ubuntu miniconda安装教程
https://blog.csdn.***/Baby_of_breath/article/details/124041687
ubuntu安装Miniconda

效果图:

转载请说明出处内容投诉
CSS教程_站长资源网 » 20240203在Ubuntu20.04.6下配置stable-diffusion-webui.git

发表评论

欢迎 访客 发表评论

一个令你着迷的主题!

查看演示 官网购买