推广 热搜:   公司  快速  企业  中国  设备    上海  行业  未来 

AIGC入门教程:Stable Diffusion,万字保姆篇

   日期:2024-11-01     移动:http://keant.xrbh.cn/quote/13424.html

AI技术的进步为我们的工作带来了更多挑战,比如不少人可能就对新出现的AI绘画软件应用感到不太熟练。而在本篇文章里,作者就针对 Stable Diffusion 这款AI绘画软件的使用输出了这份“保姆级教程”,一起来看看本文的解读。

AIGC入门教程:Stable Diffusion,万字保姆篇

img

码字不易,SD保姆教程,从原理功能到案例输出展示,最后简述ControlNet的使用技巧,图文约1万5千字左右,阅读时长约20分钟

img
这份完整版的学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

除了官方给出的解释。

它和MJ有什么区别

为了更方便的理解,我们将Stable Diffusion与Midjourney做一个对比

img

提示词分为两个部分。

1)正向提示词

i. 生成图像时,我们可以使用正向提示词来指定想要生成的图像。正向提示词可以是脑子里想到的图片或一句话,将其拆分成不同的关键词,并用逗号隔开作为输入。

ii. 需要注意的是,相同的指令在不同的模型库和参数下,生成的输出图像可能会不一样。此外,提示词的顺序也非常重要,因为它们的顺序会影响到生成图像的权重。通常情况下,越靠前的提示词权重越大,越靠后的提示词权重越小。

2)排除词

输入框内输入的标签内容就是你画面中不想要出现的东西,如:低质量的,缺手指,五官不齐等等。

下图给大家做一个案例演示。

img

3)提示词拆分

对于使用提示词生成图像生成的小伙伴来说,当看到喜欢的图像或脑海中想到很多画面,但却不知道如何用提示词准确描述,现在有三种方法可以帮助大家快速拆分和生成图像。

i. Stable Diffusion 中自带反堆功能,可以通过将想要拆分的图像拖入反堆,点击按钮来获得生成该图像的提示词。第一次使用可能会有些慢,需要稍等片刻。

需要注意的是,这些提示词需要进行后期的优化,常用的方法是通过百度翻译后进行增删改,或者输入到 GPT 中进行优化,优化后将提示词放入相应的框内进行图像输出。

img
ii. 第二种方法我们可以借助三方网站:https://replicate.com/ 来进行拆分,拆分好后,同第一条一样,进行一个增删改,然后我们对两种方法进行比较,通过比较后,我们可以进行词汇的筛选与合并。

img

iii. 利用gpt或文心等相关工具,将想要描述的长句输入,最后加一句描述,请将这句话拆分为Stable Diffusion的提示词,如果不满意可以继续恢复优化提示词,或者换一批相关描述,然后将转换好的提示词同i一样增删改。

img

正如前文所述,词汇在提示中的位置越靠前,其所占的权重就越大。为了进一步调整提示关键词的权重,我们可以通过以下语法来设置关键词的权重:在选中关键词的同时,按下键盘上的Ctrl+上下来快速调整权重。每次调整的权重值为0.1,建议将权重值控制在0.7-1.4之间。

简单来说,将每个提示词看作一个独立的个体,权重默认为1,而后面的数值就相当于在修改这个默认值。当然,我们也可以将权重调整为负数,从而在提示中产生与原意相反的影响。

通过这种方法,我们可以更加精确地控制提示关键词的权重,以达到更好的提示效果。同时,我们也需要注意保持提示内容的流畅性和自然性,避免过度的修改导致提示内容的语义不连贯或不符合实际情况。

画面的信息量取决于输出图片的大小。在全身构图中,一些细节,例如脸部、饰品和复杂的纹样,只有在较大的图像中才能得到充分的展示空间,如图像太小,脸部,手部,一些细节就会被压缩成一团,无法得到充分的表现,以下图的风景为例,当画幅越大时,展示的内容越多。

img

输出画面需要的步数,每一次采样步数都是在上一次的迭代步骤基础上绘制生成一个新的图片,一般来说采样迭代步数保持在18-30左右即可,低的采样步数会导致画面计算不完整,高的采样步数仅在细节处进行优化,对比输出速度得不偿失。

常用的有三种,分别是Euler a,DPM++2S a Karras和DDI

Euler a

i. Euler a是一种用于控制时间步长大小的可调参数,在Stable Diffusion中采用Euler时间步长采样方法。适当的Euler a值能够捕捉到细节和纹理,但如果值太大会导致过度拟合,生成图像出现噪点等不良效果。

ii. 一句话概括:采样生成速度最快,但是如果说在高细节图增加采样步数时,会产生不可控突变(如人物脸扭曲,细节扭曲等)。

适合:ICON,二次元图像,小场景。

下图为大家展示同提示词不同步幅。

img
DPM++2S a Karras

i. 采用 DPM++2S a Karras 采样方法生成高质量图像,该方法在每个时间步长中执行多次操作,同等分辨率下细节会更多,比如可以在小图下塞进全身,代价是采样速度更慢。

下图展示elura a同提示词不同步幅下的输出图像,可以看到步幅越高,细节刻画越好。

img

DDIM

i. DDIM 采样方法可以快速生成高质量的图像,相比其他采样方法具有更高的效率,想尝试超高步数时可以使用,随着步数增加可以叠加细节。

下图为大家展示DDIM同提示词不同步幅下的输出图像,可以看到随着步幅的提高,细节和丰富度逐渐提高。

img

Stable Diffusion中的提示词相关性指的是输入提示词对生成图像的影响程度。当我们提高提示词相关性时,生成的图像将更符合提示信息的样子;相反,如果提示词相关性较低,对应的权重也较小,则生成的图像会更加随机。因此,通过调整提示词相关性,可以引导模型生成更符合预期的样本,从而提高生成的样本质量。

i. 在具体应用中,对于人物类的提示词,一般将提示词相关性控制在7-15之间。

ii. 而对于建筑等大场景类的提示词,一般控制在3-7左右。这样可以在一定程度上突出随机性,同时又不会影响生成图像的可视化效果。因此,提示词相关性可以帮助我们通过引导模型生成更符合预期的样本,从而提高生成的样本质量。

img

i. 随机种子是一个可以锁定生成图像的初始状态的值。当使用相同的随机种子和其他参数,我们可以生成完全相同的图像。设置随机种子可以增加模型的可比性和可重复性,同时也可以用于调试和优化模型,以观察不同参数对图像的影响。

ii. 在Stable Diffusion中,常用的随机种子有-1和其他数值。当输入-1或点击旁边的骰子按钮时,生成的图像是完全随机的,没有任何规律可言。而当输入其他随机数值时,就相当于锁定了随机种子对画面的影响,这样每次生成的图像只会有微小的变化。因此,使用随机种子可以控制生成图像的变化程度,从而更好地探索模型的性能和参数的影响。

在工作产出中,如果细微调整,我们将会固定某个种子参数然后进行批量生成。

img
三、Checkpoint,VAE,embedding和lora的使用详解

img

i. 对于模型作者而言,训练模型通常指生成Checkpoint文件。这些文件包含了模型参数和优化器状态等信息,是训练过程中定期保存的状态快照。

ii. 对于使用者而言,可以将Checkpoint文件理解为一种风格滤镜,例如油画、漫画、写实风等。通过选择对应的Checkpoint文件,您可以将Stable Diffusion模型生成的结果转换为您所选择的特定风格。需要注意的是,一些Checkpoint文件可能需要与特定的低码率编码器(如Lora)配合使用,以获得更好的效果。

iii. 在下载Checkpoint文件时,您可以查看相应的模型简介,通常作者会提供相应的文件和说明事项,以帮助您更好地使用和理解该文件。

总之,Checkpoint文件是Stable Diffusion模型训练过程中定期保存的状态快照,使用者可以将其理解为一种风格滤镜,用于将模型输出结果转换为特定的风格。在使用Checkpoint文件时,需要注意文件的匹配和相应的使用说明。

img

i. 可以将VAE理解为对模型的滤镜加微调,不同的VAE可能有一些细节上的差异,但不会影响输出的效果。

ii. 它可以增强模型的表现,有些模型文件已经自带了VAE效果,因此不需要盲目地去挂载,可以选择自动模式来简化日常使用。

img

i. 如果你有做过UI的经验,那么你应该知道组件的概念。在Stable Diffusion中,embedding技术就可以被理解为一种组件,它可以将输入数据转换成向量表示,方便模型进行处理和生成。

ii. 举个例子,如果我们想要生成一个开心的皮卡丘,通常需要输入很多描述词,如黄毛、老鼠、长耳朵、腮红等等。但是,如果引入皮卡丘的embedding,我们只需要输入两个词:皮卡丘和开心。皮卡丘的embedding打包了所有皮卡丘的特征描述,这样我们就不用每次输入很多单词来控制生成的画面了。

iii. 在日常使用中,embedding技术通常用于控制人物的动作和特征,或者生成特定的画风。相比于其他模型(如LORA,embedding的大小只有几十KB,而不是几百兆或几GB,除了还原度对比lora差一些但在存储和使用上更加方便。

iiii. 总之,embedding技术将输入数据转换为向量表示,为模型的处理和生成提供了便利。通过使用embedding,我们可以更加轻松地生成符合预期的样本,而不需要手动输入大量的描述词汇。

img

LORA与embedding在本质上类似,因为携带着大量的训练数据,所以LORA对人物和细节特征的复刻更加细腻。

使用技巧

i. 通常来说,每个 LORA 模型都有对应的底膜和触发词汇。我们可以查看 LORA 作者产出的相关图片,从中获取模型信息,并从中选择一些提示词和排除词来指定生成图像的方向。需要注意的是,每个 LORA 模型对输出图像的权重设置是非常重要的。权重设置越大,对画面的影响因素就越浅。通常情况下,权重应该控制在 0.7-1 之间。如果权重过高,会大幅度影响出图的质量。

ii. 为了获得最佳效果,我们可以根据不同的 LORA 模型选择适当的提示词和排除词,并在设置权重时进行调整。同时,我们还可以参考其他作者的经验和技巧,以便更好地利用 LORA 生成图像。

img

简介

是一种生成图像的方法,它可以通过对已有的图像进行修改或变形,生成新的图像。在 Stable Diffusion 中,我们可以将垫图的图像看作是一张“初始图像”,通过多次迭代,对其进行修改和变形,逐步生成与垫图风格类似想要的图片。

需注意的是图生图相对于文生图多出两个功能。

重绘幅度

i. 指的是每次迭代中图像被重新绘制的程度或幅度,也就是新生成的图像与上一次迭代生成的图像之间的差异程度。

ii. 它的取值范围在 0 到 1 之间。当 值等于 0 时,新生成的图像与上一次迭代生成的图像完全一致,即没有重新绘制

当值等于 1 时,新生成的图像与上一次迭代生成的图像完全不同,即完全重新绘制。

需要注意的是,重绘幅度的大小会影响生成图像的质量和逼真程度。当重绘幅度较小时,生成的图像可能会比较模糊或粗糙

当重绘幅度较大时,生成的图像可能会出现明显的噪点或瑕疵。

img

缩放模式

  • 拉伸:不改变宽高比的前提下将图片拉伸,宽度高度充满画面空间的100%。
  • **裁剪:**保留宽高比的基础上,然后裁剪掉超出去的部分,使用时我们可以提前调整好输出图片的宽高比例。
  • **填充:**它指在缩放图像时,将原始图像放置在目标尺寸的中心位置,多出去的部分用一定的颜色值(通常为黑色)填充周围的空白区域。

直接缩放

i. 指对图像进行简单的缩放处理,即直接将原始图像缩放到目标尺寸。

ii. 在 Stable Diffusion 中,如果生成的图像尺寸与原始图像尺寸不一致,就需要进行缩放处理。直接缩放是一种简单粗暴的缩放方式,它直接将原始图像缩放到目标尺寸,不进行任何额外的处理。这种缩放方式的优点是简单快速,但缺点是可能会导致图像失真或模糊,特别是当缩放比例较大时。

主要用来做图片放大和造型背景的变化,或者三次元改二次元时用的,通常配合着ControlNet来使用。

img

i. 通过手动绘制或修改图像的局部区域,来指导生成器生成更加符合用户期望的图像,使用时可以利用绘图工具,如笔刷、橡皮擦等,对图像的局部区域进行修改。修改后的图像会被作为下一次迭代的初始图像,从而影响后续的图像生成过程。

ii. 通过绘图,可以更加精细地控制生成图像的细节和特征,从而获得更符合预期输出。

img

i. 也称为上传蒙版法,提前在作图软件里用画笔涂抹好需要重新绘制的区域,黑色区域表示需要修复的区域,白色区域表示不需要修复的区域。

(注意:因此只需要在需要修复的区域涂黑色,其他区域可以涂白或保留原始颜色。上传蒙版的话也只需在绘图软件里把需要修复的区域涂黑即可

ii. 局部重绘的目的是尽可能地保留原始图像的结构和纹理特征,使修复后的图像更加自然和真实。

img

指使用已有的图像生成新的图像。而图生图的批量处理是指同时对多张输入图像进行图生图操作,生成对应的多张输出图像。

img

权重

ControlNet的权重与图生图权重的对比关系时

  • 低重绘强度配高权重,可以锁定图片的细节,更改画风上的展现,拓展延伸推荐。
  • 高重回强度配低权重,修改图片细节,定风格图后小修改推荐。

预处理器与模型的关系

i. 使用预处理器时要与模型一一对应起来,如与处理器选择canny,则相对应的模型也要选择canny。

ii. 预处理器和模型在 Stable Diffusion 中是相辅相成的,预处理器通过对输入图像进行预处理和数据增强,为模型提供了更好的输入,而模型则通过对输入进行特征提取和生成高质量图像,为预处理器提供了更好的反馈。

介入时机和退出时机

i. 介入时机:代表第几步介入对画面的影响;退出时机:代表第几步退出对画面的影响。

ii. 如,现在是一个生成步幅为30步的图像

  • 现在介入时机为0.2,则从30×0.2=6,第六步的时候ControlNet开始介入
  • 现在退出时机为0.8,则从30×0.8=24,第二十四步的时候ControlNet退出对输出的介入

i. Canny 是一种经典的边缘检测算法,能够很好地识别出图像中的边缘信息,对于图像生成任务来说,可以帮助模型更好地生成具有清晰边缘的图像。

ii. 处理图片的方式是将图片专为线稿,对于画面细节不复杂的图像来说很好,但处理复杂图像时,主体会容易被除主题元素以外的元素影响。

iii. 细节刻画上,一种是分辨率越高,线条越清晰,阈值越少,对应的细节也越多。

img

i. 该算法的特点是能够同时预测多个尺度的边缘,从而提高了边缘检测的精度,对边缘清晰的图像生成效果更好。

ii. 当用草图转上色时,可以在绘图软件将描边加粗加深一些,从而能更方便获取边缘。

img

i. mlsd模型,可以进行直线检测,通过分析图片的线条结构来构建出建筑外框,适合建筑设计的使用。

ii. 可以配合canny一起使用,效果更佳。

判断主图的主体动作,然后将动作附加在主图上 一般配合着open pose editer。

img

对有场景深度的图片效果更佳,生成的图像景深更易区分。

img

随着AI技术的快速发展,图像生成领域的大型模型正在成为研究的热点,但是由于该领域的相对新颖和复杂性,相关的教程和资源目前还相对匮乏。希望本文可以帮助各位设计师快速入门Stable Diffusion,并为您提供一些有用的参考资料。

相信在不久的将来,一些真正具有商业价值的大模型将会涌现出来,为设计和其他领域带来更多的创新和效益,最后,希望大家能不断探索和学习,掌握更多的技能和知识,为设计赋能

关于AI绘画技术储备

学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助

👉[[CSDN大礼包《StableDiffusion安装包&AI绘画入门学习资料》免费分享]]安全链接,放心点击

对于0基础小白入门

如果你是零基础小白,想快速入门AI绘画是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以找到适合自己的学习方案

包括:stable diffusion安装包、stable diffusion0基础入门全套PDF,视频学习教程。带你从零基础系统性的学好AI绘画

👉stable diffusion新手0基础入门PDF👈

(全套教程文末领取哈
在这里插入图片描述

👉AI绘画必备工具👈

在这里插入图片描述

👉AI绘画基础+速成+进阶使用教程👈

观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
在这里插入图片描述
温馨提示:篇幅有限,已打包文件夹,获取方式在:文末

👉大厂AIGC实战案例👈

本文地址:http://lianchengexpo.xrbh.cn/quote/13424.html    迅博思语资讯 http://lianchengexpo.xrbh.cn/ , 查看更多

特别提示:本信息由相关企业自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


相关行业动态
推荐行业动态
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  粤ICP备2023022329号