手把手教你在本地电脑部署Stable Diffusion生成AI图像!无GPU也能跑图!

Stable Diffusion AI 美女

如果你还不知道 Stable Diffusion 是什么的话,看看这张图片,这就是它的作品。

之前本站(xzhihui.pro)分享过可以免费使用Stable Diffusion绘画的3个网站,如果你还不知道,请点此文章查看。这三个网站可以免费生成AI图像,对一般用户来说足够用了。

但如果你对图像要求比较高,而且不差钱,你也可以选择在腾讯云或阿里云云端部署Stable Diffusion来跑图,也可以选择在本地电脑部署Stable Diffusion。

在本篇接下来的内容中,我会手把手教你在本地电脑上搭建 Stable Diffusion 环境,并生成第一张AI图像。

环境配置要求

Stable Diffusion主要分为两大部分:

  1. 第一部分是Stable Diffusion WebUI,它是一个可视化的操作界面,就相当于一个软件,我们跟着操作就可以生成AI图像。
  2. 第二部分是Model,也就是模型。在Stable Diffusion WebUI中,我们可以选择不同的模型,这样生成出来的图像会有不同的效果。Model你可以在本站model下载模块随意下载,想用哪个用哪个。这一点就不多做解释了,未来我们还会更细致的讲解Model的使用方法。

想要顺利运行Stable Diffusion WebUI和Model,对电脑配置有一定的要求。由于Stable Diffusion主要吃显存的,显存越大运行速度越快。而且电脑内存也不能太小,最好不小于16GB。

一般来说,Stable Diffusion的最低配置至少为:

  • GPU:4GB显存
  • CPU:4核
  • 内存:16GB

预算充足的情况下,你可以专门升级显卡,最差也得是3060ti,显存越大越好。CPU和内存够用就行。

如果你电脑没有GPU,或者GPU显存太小,那么也不用灰心,Stable Diffusion可以选择GPU模式和CPU模式,没有GPU用CPU运行跑图也是可以的,只不过速度相对于GPU来说比较慢,我之前完全使用的是CPU模式,4核CPU生成一张图片大约5分钟,玩一玩还是没问题的。

如果你是个新人,想要快速的创建几张AI图像玩一玩,我推荐你阅读《AI图像无限免费生成!Stable Diffusion初学者强烈推荐!》这篇文章,可以快速入门Stable Diffusion。

本地电脑部署 Stable Diffusion

Stable Diffusion 是一个开源项目,源代码可以直接在Github上获取到。但是直接从项目中启动,需要的环境资源非常多而且杂乱,所以推荐你用大佬们创建出来的整合包。这样你把整合包下载到本地安装好,就可以直接运行Stable Diffusion绘画了,省去了很多麻烦。

目前比较火的整合包有(放上链接以示尊重):

这里我用的是秋叶的整合包,你也可以在百度网盘下载,链接:https://pan.baidu.com/s/11Du5S4zPcMLO7WOG2UbDlw 提取码:izqc。

手把手教你在本地电脑部署Stable Diffusion生成AI图像!无GPU也能跑图!

下载下来后总共有以上3种文件,我们先运行【启动器运行依赖】,把依赖项安装上,然后解压【sd-webui-aki-v4.1.zip】文件,Stable Diffusion的所有程序都在这个压缩包中。至于【可选controlnet1.1】文件夹,其中是一些Model模型,不是必须的,不用管它。

【sd-webui-aki-v4.1.zip】文件解压后,,运行【A启动器】,然后再点击【一键启动】即可启动Stable Diffusion。如下:

手把手教你在本地电脑部署Stable Diffusion生成AI图像!无GPU也能跑图!
手把手教你在本地电脑部署Stable Diffusion生成AI图像!无GPU也能跑图!

稍等片刻之后,会在浏览器中自动打开Stable Diffusion WebUI,界面如下,即说明安装成功了。

手把手教你在本地电脑部署Stable Diffusion生成AI图像!无GPU也能跑图!

恭喜你,你现在可以进行AI绘画创作了!

接下来我将简单演示使用【文生图】功能创作一张AI图片,大家可以跟我一块实操。如果下列WebUI中有些设置选项你不是很清楚,先不用着急,后续的文章中我们会深度讲解Stable Diffusion的高级操作方法。

首先我们先选择几个基本的参数,输入到对应的文本框中:

  • Stable Diffusion模型:此处选择的是绘图model,你们刚安装完的应该是默认的Stable Diffusion v2.1模型,此处我使用了majicMIX realistic模型,这款模型生成出来的图片特别真实、漂亮。由于模型不一样,所以你们生成的图片可能跟我的有很大差别。
  • 正向提示词:(8k, best quality, masterpiece:1.2), (realistic, photorealistic, photo-realistic:1.37), ultra-detailed, beautiful detailed eyes, beautiful detailed nose,
  • 反向提示词:(EasyNegative:1.2),paintings, sketches, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots , acnes, skin blemishes, age spots, (outdoor:1.6), (manboobs), (backlight), (ugly:1.33), (duplicate:1.33), (morbid:1.21), (mutilated:1.21), (tranny: 1.33), mutated hands, (poorly drawn hands:1.33), blurry, (bad anatomy:1.21), (bad proportions:1.33), extra limbs, (disfigured:1.33), (more than 2 nipples), (missing arms: 1.33), (extra legs:1.33), (fused fingers:1.61), (too many fingers:1.61), (unclear eyes:1.33), bad hands, missing fingers, extra digit, (futa:1.16), bad body, NG_DeepNegative_V1_75T, (too many fingers:1.7), (bad hands:0.1), (extra fingers:1.9), (mutated hands:1.9), abdominal stretch, glans, {{fused fingers}}, {{bad body}}
  • 宽度:512
  • 高度:768
  • 随机数种子:2887709609

设置好参数之后,我们点击【生成】按钮。

如果你的GPU显存足够,图片会很快生成,如果你没有GPU,使用的是CPU模式,那么就会很慢,只能耐心等待。

片刻之后,SD给我生成了这张女神照片:

手把手教你在本地电脑部署Stable Diffusion生成AI图像!无GPU也能跑图!

你们生成的图片是怎样的,比一比呀!

看完本篇文章你应该已经入门AI绘画领域了,接下来你可以学习《关于Stable Diffusion模型你应该知道的所有知识!》,也可以学习《Ai绘图关键字大全》进一步学习AI绘画。

本文转载自https://www.xzhihui.pro/134625.html,本文观点不代表Python技术站立场。

(7)
上一篇 2023年7月11日 下午7:58
下一篇 2023年7月15日 上午8:18

相关文章

  • 关于Pytorch的二维tensor的gather和scatter_操作用法分析

    看得不明不白(我在下一篇中写了如何理解gather的用法) gather是一个比较复杂的操作,对一个2维tensor,输出的每个元素如下: out[i][j] = input[index[i][j]][j] # dim=0 out[i][j] = input[i][index[i][j]] # dim=1 二维tensor的gather操作 针对0轴 注意i…

    2023年4月8日
    00
  • 编译caffe的诸多注意事项

      1.cudnn版本不匹配 首先第一步,编译caffe_train-master就遇到了问题:     但是在同样的环境下(CUDA8.0  +  cudnn-8.0-linux-x64-v6.0)编译官方的caffe-master 就正常通过了:     很显然就是cudnn版本的问题了,但是不巧的是NVIDIA官网在维护,无法下载cudnn5;从同学那…

    2023年4月6日
    00
  • Conda 中安装 Keras

    conda create -n keras python=3.5 ipykernelactivate keraspython -m ipykernel install –user –name kerasjupyter notebook 使用这种方法安装的 Keras 才能被 Jupyter Notebook 调用。 I found the answer …

    Keras 2023年4月8日
    00
  • 关于Stable Diffusion模型你应该知道的所有知识!

    Stable Diffusion 模型主要有以下几种,每种模型都具有不同的特色和应用场景: 1.DeepStableDiffusion DeepStableDiffusion 是一种基于 Stable Diffusion 的深度学习模型,它可以根据输入的图像生成出高质量的绘画作品。该模型利用了深度卷积神经网络和扩散运算的结合,实现了更加精确的绘画效果。其特色…

    2023年11月2日
    00
  • Deeplearning.ai吴恩达笔记之循环神经网络2

    Introduction to Word Embeddings Word Representation 在之前的学习中,我们已经学习使用了one-hot的方式对单词进行编码。 但是这种one-hot的方式的缺点就是每个单词都是相互独立的,无法知道不同单词之间的相似程度。例如Apple和Orange都是水果,词性相近,但是单从one-hot编码上来看,内积为零…

    2023年4月8日
    00
  • PyTorch——(7) MNIST手写数字识别实例

    代码 import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim from torchvision import datasets, transforms batch_size=200 learning_rate=0.01 epo…

    2023年4月8日
    00
  • caffe中的Local Response Normalization (LRN)有什么用,和激活函数区别

    http://stats.stackexchange.com/questions/145768/importance-of-local-response-normalization-in-cnn caffe 解释: The local response normalization layer performs a kind of “lateral inhib…

    Caffe 2023年4月8日
    00
  • 目标检测算法之R-CNN和SPPNet原理

    一、R-CNN的原理   R-CNN的全称是Region-CNN,它可以说是第一个将深度学习应用到目标检测上的算法。后面将要学习的Fast R-CNN、Faster R-CNN全部都是建立在R-CNN基础上的。   传统的目标检测方法大多以图像识别为基础。一般可以在图片上使用穷举法选出所有物体可能出现的区域框,对这些区域框提取特征并使用图像识别方法分类,得到…

    2023年4月8日
    00
合作推广
合作推广
分享本页
返回顶部