由于AI绘画模型通常需要消耗大量的计算资源,因此请确保您的计算机性能足够强大(建议8G显存或以上)。
AI绘画模型生成的绘画作品可能存在一定的不确定性,可能无法完全满足您的预期。建议在绘画前调整好参数并进行适当的预览和调整,以获得满意的绘画结果。
AI绘画模型仅是一种辅助工具,绘画作品的创作过程仍需由人类艺术家进行主导和把控。
AI绘画模型的开发者和贡献者不对使用该模型所产生的任何后果负责,使用者需自行承担风险。
最后,使用AI绘画模型可以带来无穷乐趣和创造性的体验,但请务必合法使用(尤其是真人模型),遵守相关法律法规和道德准则。
1.本地部署
在使用AI绘画模型之前,需要先准备一台配备英伟达显卡的电脑,无论什么型号最好是大显存,像我还在用这样的上古显卡也可以支持AI绘画模型的运行,甚至一些更低的显卡也可以尝试使用,不过可能需要降低绘画参数或较长的等待时间。本教程不会涉及网站部署和云端部署①,还有②或dall③等其他的AI绘画模型,而是专注于介绍 。如果你是A卡用户,可以尝试访问以下项目:(补充:已经被星空佬做成整合包了:)
①
②
③
官方:
有人整合好的(应该都自带环境):
独立研究员-星空的整合包-
秋葉aaaki的启动器-
注意,启动器不包括整合包,秋葉aaaki的整合包在这里-
无论是谁的整合包都可以装上启动器,注:整合包的文件夹路径不得有中文
把启动器按照视频那样安装进整合包之后启动即可
首次启动建议先进入高级选项查看一下设置
选择你的显卡,然后根据你的显存大小选择显存优化
用CPU也行,只不过…
版本管理里选择稳定版的最新版(新版自带Lora功能)
模型和扩展之后在讲,先启动
2.模型
启动之后等待一段时间,会自然弹出网页ui,这就是你的。
webui
一步一步来,在最左上角的位置,便是 的模型选择窗口,打开可以看见你拥有的全部模型, 模型是最基础的一环,不同的模型生成的效果也各不相同,模型文件一般放在
‘你的文件夹–webui\-’
那么这些模型去哪找?
各种模型网站
怎么识别哪个是 模型?
就拿举例(是个开源免费的网站)
看看预览图左上角是写的是否是,再点进去验证他的类型
检查Tpye
如果是那就是 的主模型
下载
在下载这里你可能会看见格式的模型,还有VAE,一般主模型都是ckpt也就是格式,而是一种比ckpt更安全的格式,其实无论你遇见的是ckpt还是safe都能用,只需明白是格式不同而已。
而VAE是放在‘你的文件夹–webui\VAE’里,用于提升画面饱和度用的,具体可看下图启用
如何使用VAE
打开设置,找到 ,刚刚放进去的VAE需要刷新一下才能看见,然后再选择你的VAE,保存设置,第五步不能漏掉,如果你找的模型没有自带VAE用整合包自带的也行。
模型版本选择
在选择模型的时候你可能会看到一个模型分了好几个版本,后面都带有fp16,fp32之类的,这些都是剪枝模型,但和全精度的模型差别并不大,体积却可以小好几倍。
关于LoRA,这是个很强大的微调模型,你无需下载多个体积巨大的 模型,只要一个 模型,搭配上LoRA,你也照样能做到多个不一样的模型画风,除了画风模型,LoRA也能做人物角色模型,姿势模型等,而一个LoRA只有100MB只有的大小。在这之前只有和用于微调模型,而现在几乎快被淘汰了,现在大部分也作为负面提示词来用。
3.提示词
提示词填写
关于这方面已经有许许多多的人都做了教程,这里就不多重复了
魔咒指南:
AI绘画——深度教程:
Tags基本编写逻辑及三段术式入门与解析v3:
元素法典:
关于有些负面提示词的有以下推荐
(模型放在‘你的文件夹–webui’):
4.参数
参数
1.采样方法:之后会以图片的方式直观的告诉你
2.采样步数:跑一张图需要多少步,之后也会放图片
宽度高度就不多介绍了,就是分辨率大小
生成批次:点击生成按钮之后会出多少张图,是以一张图生成完之后再生成第二张
每批数量:每一批同时生成多少张图,建议别动这项,费显卡
3.提示词相关性:之后会以图片的方式直观的告诉你
收集种子:默认-1,可以固定一个种子生成
面部修复:给真人用的,可平铺:没用过,高清修复:4.放大和5.重绘
关于分辨率有一些需要补充,就算你提示词,种子,参数都一样,只要分辨率有一点偏差那生成的结果都会大不一样
1.目前所有采样方法的效果一览
一般常用Euler a,DPM++ 2M ,DDIM
2.Euler a,DPM++ 2M ,DDIM采样各迭代20-35步
可以看到迭代步数对画面的影响并不大
3.提示词相关性
有略微差别,但也不是很大
4.高清修复:三种常用算法
,(-exact),R- 4x+
推荐(-exact),只想放大推荐R- 4x+
5.高清修复重绘幅度()与采样次数(Hires steps)
如图
5.LoRA
lora必须要一个主模型作为依赖,主要可用于给主模型提供稳定的人物角色,场景,姿势,服装,画风,表情等
在较新的版本里已自带lora功能,老版本可能需要手动添加名为 的插件,这里就用官方自带的lora,lora模型一般放在‘你的文件夹–webui\Lora’
官方自带lora位置
lora选项界面
前三个就不多说了,上面已经说明。
在把lora模型放入文件夹后需要点击刷新一次,之后便可在下面找到你的lora
lora模型可附带预览图,只要图片名和模型名一致即可
模型名可随意更改,图片名必须和模型名一致
lora的提示词格式为
这里负面提示词用的是,的提示词不需要括号这些,模型名叫什么提示词就写什么。
注意,有的lora模型需要额外附加提示词,一般都会直接写在模型名上
如图
需要额外提示词的模型会在模型名后缀加上作附'提示词'
如图
仅仅只用如上几个提示词跑出来的图↓
效果图
注意,lora超过两个不建议再使用高清修复的以及变种的算法,很容易出现古神
如下图(谨慎观看)
R- 4x+(这个算法倒是没什么问题)
(-exact)
抽 象 艺 术
不过一般用一两个lora也就够了,如果需要多人角色见第七章
!
6.
扩散控制网络
什么是?
WebUI插件的安装
第一种方法:
下载压缩包解压然后放在‘你的文件夹–webui’
第二种方法:
直接把上面链接写下面这里然后点击安装,然后点已安装,再点应用并重启页面
插件链接填写处
重载之后插件会出现在参数的下方
的位置
插件界面
面板
注意:这个插件更新频率非常快,界面随时会发生变动
模型
模型
开头的文件都是模型,一般放在‘你的文件夹–webui\sd-webui-'
分为预处理和模型,预处理可以根据选择不用的模式处理你提供的图片
预处理是插件自带的,无需下载
处理流程为
原图=>预处理=>模型=>成品
这里使用canny模型就需要用到canny的预处理,其他模型同理
canny
基于线稿生成图片(使用Canny预处理)
depth
基于深度图生成图片(使用MiDaS预处理)
hed
基于反色线稿生成图片(使用HED预处理)
基于法线贴图生成图片(使用 map预处理)
基于姿势图生成图片(使用预处理)
基于涂鸦风格生成图片(使用预处理)
seg
基于色块标注区域生成图片(没有预处理,人工画的)
如果你不需要预处理在预处理选项选none即可,有了预处理过的图片你可以手动保存这些图片,然后选择对应的模型生成。
顺便在这里介绍两个摆姿势的插件
:
posex:
关于如何利用本插件提取线稿:
关于如何修手的小技巧:
7.
这里讲的已经比较详细了:
所需插件
:
LoRA:
主要用于画幅分区,能在多人物情况下做到不同的特征,如图: