手把手教你在本地电脑部署Stable Diffusion生成AI图像!无GPU也能跑图!

Stable Diffusion AI 美女

如果你还不知道 Stable Diffusion 是什么的话,看看这张图片,这就是它的作品。

之前本站(xzhihui.pro)分享过可以免费使用Stable Diffusion绘画的3个网站,如果你还不知道,请点此文章查看。这三个网站可以免费生成AI图像,对一般用户来说足够用了。

但如果你对图像要求比较高,而且不差钱,你也可以选择在腾讯云或阿里云云端部署Stable Diffusion来跑图,也可以选择在本地电脑部署Stable Diffusion。

在本篇接下来的内容中,我会手把手教你在本地电脑上搭建 Stable Diffusion 环境,并生成第一张AI图像。

环境配置要求

Stable Diffusion主要分为两大部分:

  1. 第一部分是Stable Diffusion WebUI,它是一个可视化的操作界面,就相当于一个软件,我们跟着操作就可以生成AI图像。
  2. 第二部分是Model,也就是模型。在Stable Diffusion WebUI中,我们可以选择不同的模型,这样生成出来的图像会有不同的效果。Model你可以在本站model下载模块随意下载,想用哪个用哪个。这一点就不多做解释了,未来我们还会更细致的讲解Model的使用方法。

想要顺利运行Stable Diffusion WebUI和Model,对电脑配置有一定的要求。由于Stable Diffusion主要吃显存的,显存越大运行速度越快。而且电脑内存也不能太小,最好不小于16GB。

一般来说,Stable Diffusion的最低配置至少为:

  • GPU:4GB显存
  • CPU:4核
  • 内存:16GB

预算充足的情况下,你可以专门升级显卡,最差也得是3060ti,显存越大越好。CPU和内存够用就行。

如果你电脑没有GPU,或者GPU显存太小,那么也不用灰心,Stable Diffusion可以选择GPU模式和CPU模式,没有GPU用CPU运行跑图也是可以的,只不过速度相对于GPU来说比较慢,我之前完全使用的是CPU模式,4核CPU生成一张图片大约5分钟,玩一玩还是没问题的。

如果你是个新人,想要快速的创建几张AI图像玩一玩,我推荐你阅读《AI图像无限免费生成!Stable Diffusion初学者强烈推荐!》这篇文章,可以快速入门Stable Diffusion。

本地电脑部署 Stable Diffusion

Stable Diffusion 是一个开源项目,源代码可以直接在Github上获取到。但是直接从项目中启动,需要的环境资源非常多而且杂乱,所以推荐你用大佬们创建出来的整合包。这样你把整合包下载到本地安装好,就可以直接运行Stable Diffusion绘画了,省去了很多麻烦。

目前比较火的整合包有(放上链接以示尊重):

这里我用的是秋叶的整合包,你也可以在百度网盘下载,链接:https://pan.baidu.com/s/11Du5S4zPcMLO7WOG2UbDlw 提取码:izqc。

手把手教你在本地电脑部署Stable Diffusion生成AI图像!无GPU也能跑图!

下载下来后总共有以上3种文件,我们先运行【启动器运行依赖】,把依赖项安装上,然后解压【sd-webui-aki-v4.1.zip】文件,Stable Diffusion的所有程序都在这个压缩包中。至于【可选controlnet1.1】文件夹,其中是一些Model模型,不是必须的,不用管它。

【sd-webui-aki-v4.1.zip】文件解压后,,运行【A启动器】,然后再点击【一键启动】即可启动Stable Diffusion。如下:

手把手教你在本地电脑部署Stable Diffusion生成AI图像!无GPU也能跑图!
手把手教你在本地电脑部署Stable Diffusion生成AI图像!无GPU也能跑图!

稍等片刻之后,会在浏览器中自动打开Stable Diffusion WebUI,界面如下,即说明安装成功了。

手把手教你在本地电脑部署Stable Diffusion生成AI图像!无GPU也能跑图!

恭喜你,你现在可以进行AI绘画创作了!

接下来我将简单演示使用【文生图】功能创作一张AI图片,大家可以跟我一块实操。如果下列WebUI中有些设置选项你不是很清楚,先不用着急,后续的文章中我们会深度讲解Stable Diffusion的高级操作方法。

首先我们先选择几个基本的参数,输入到对应的文本框中:

  • Stable Diffusion模型:此处选择的是绘图model,你们刚安装完的应该是默认的Stable Diffusion v2.1模型,此处我使用了majicMIX realistic模型,这款模型生成出来的图片特别真实、漂亮。由于模型不一样,所以你们生成的图片可能跟我的有很大差别。
  • 正向提示词:(8k, best quality, masterpiece:1.2), (realistic, photorealistic, photo-realistic:1.37), ultra-detailed, beautiful detailed eyes, beautiful detailed nose,
  • 反向提示词:(EasyNegative:1.2),paintings, sketches, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots , acnes, skin blemishes, age spots, (outdoor:1.6), (manboobs), (backlight), (ugly:1.33), (duplicate:1.33), (morbid:1.21), (mutilated:1.21), (tranny: 1.33), mutated hands, (poorly drawn hands:1.33), blurry, (bad anatomy:1.21), (bad proportions:1.33), extra limbs, (disfigured:1.33), (more than 2 nipples), (missing arms: 1.33), (extra legs:1.33), (fused fingers:1.61), (too many fingers:1.61), (unclear eyes:1.33), bad hands, missing fingers, extra digit, (futa:1.16), bad body, NG_DeepNegative_V1_75T, (too many fingers:1.7), (bad hands:0.1), (extra fingers:1.9), (mutated hands:1.9), abdominal stretch, glans, {{fused fingers}}, {{bad body}}
  • 宽度:512
  • 高度:768
  • 随机数种子:2887709609

设置好参数之后,我们点击【生成】按钮。

如果你的GPU显存足够,图片会很快生成,如果你没有GPU,使用的是CPU模式,那么就会很慢,只能耐心等待。

片刻之后,SD给我生成了这张女神照片:

手把手教你在本地电脑部署Stable Diffusion生成AI图像!无GPU也能跑图!

你们生成的图片是怎样的,比一比呀!

看完本篇文章你应该已经入门AI绘画领域了,接下来你可以学习《关于Stable Diffusion模型你应该知道的所有知识!》,也可以学习《Ai绘图关键字大全》进一步学习AI绘画。

本文转载自https://www.xzhihui.pro/134625.html,本文观点不代表Python技术站立场。

(7)
上一篇 2023年7月11日 下午7:58
下一篇 2023年7月15日 上午8:18

相关文章

  • 机器学习相关——协同过滤(转载)

    在现今的推荐技术和算法中,最被大家广泛认可和采用的就是基于协同过滤的推荐方法。本文将带你深入了解协同过滤的秘密。下面直接进入正题 1 什么是协同过滤 协同过滤是利用集体智慧的一个典型方法。要理解什么是协同过滤 (Collaborative Filtering, 简称 CF),首先想一个简单的问题,如果你现在想看个电影,但你不知道具体看哪部,你会怎么做?大部分…

    机器学习 2023年4月13日
    00
  • Win7 +Cuda9.0+cudnn7.0.5 tensorflow-gpu1.5.0 安装实战

    https://blog.csdn.net/gangeqian2/article/details/79358543 https://blog.csdn.net/tomato_sir/article/details/79973237 https://blog.csdn.net/qq_36556893/article/details/79433298  –&g…

    2023年4月8日
    00
  • 卷积神经网络(三)目标检测

    1、目标定位:(以定位汽车为例) 将图像分类:行人、汽车、摩托车、纯背景图,使用softmax函数输出结果. 输出的结果不仅仅是分类,还有四个标记:bx、by、bh、bw. 这四个数据为被检测对象的边界框的参数. 左上角坐标(0,0),右下角坐标(1,1). 输出结果的表示形式:     2、特征点检测: (1)以人脸特征提取为例: 对于人脸的多个特征点,比…

    2023年4月5日
    00
  • CNN卷积减少参数个数的理解(分为全连接到CNN三个层级)

      参考连接 : https://blog.csdn.net/accumulate_zhang/article/details/77816566   1000*1000 的图像, 1000000个隐层神经元,参数个数: 10^12 –> 10^8 –> 100(单一卷积核),或者10000(100个卷积核)

    卷积神经网络 2023年4月7日
    00
  • 使用Harr特征的级联分类器实现目标检测

    前言  最近在学习人脸的目标检测任务时,用了Haar人脸检测算法,这个算法实现起来太简洁了,读入个.xml,调用函数就能用。但是深入了解我发现这个算法原理很复杂,也很优秀。究其根源,于是我找了好些篇相关论文,主要读了2001年Paul Viola和Michael Jones在CVPR上发表的一篇可以说是震惊了计算机视觉的文章,《Rapid Objection…

    2023年4月6日
    00
  • 卷积理论 & 高维FWT学习笔记

    之前做了那么多生成函数和多项式卷积的题目,结果今天才理解了优化卷积算法的实质。 首先我们以二进制FWT or作为最简单的例子入手。 我们发现正的FWT or变换就是求$\hat{a}_j=\sum_{i\in j}a_i$,即子集和,那这个是怎么来的呢? 我们假设$a$到$\hat{a}$的转移矩阵为$X$,则 $$(\sum_{j}X_{i,j}a_j)*…

    卷积神经网络 2023年4月8日
    00
  • 直接卷积理解

    最近项目上需要实现直接卷积,就看相关的教程中实现的都是信号和电子领域的卷积,结果和计算机领域的不一致,原因大家可以自己搜一下,计算机图像领域的卷积其实不是真正的卷积。 其算法示意如下图所示: 相关代码参考于他人代码,但是目前找不到了,欢迎作者联系我补充。代码有所修改。 输入:imput[IC][IH][IW] IC = input.channels IH =…

    2023年4月6日
    00
  • 机器学习笔记_02单变量线性回归

    2.1 模型表示 notation(符号): m = Number of trainging examples x’s = “input” variable / features (输入变量或者特征) y’s = “output” variable / “target” variable (输出变量或者目标变量) (x,y) = one training e…

    机器学习 2023年4月16日
    00
合作推广
合作推广
分享本页
返回顶部