当我们使用Stable-Diffusion出图时,多数情况下都会设置出图分辨率为512*512或是512*768,如此设置一方面可以加快出图速度同时也可以减轻显卡的压力,但是低分辨率的图片也会图片模糊或是细节缺失。
通常情况下,我们可以使用附加功能中的算法放大功能,但是放大功能有一些缺陷,算法放大功能只是单纯的将图片进行放大,无法对细节进行处理或细节深入。
此外,在图生图中,有一个脚本:“使用SD放大脚本”(英文:SD upscale),这个脚本的主要作用是在进行图生图的同时进行图片放大(见下图)。
我们首先来尝试使用SD upscale(使用SD放大脚本)进行图片放大,我们通过图片信息导入一张之前生成的图片进入,发送到图生图中。
使用SD upscale时,记得在原图的尺寸上增加64,例如我发送过去的图片是516*768,那么就把图片继续为576*832,我们将重绘幅度设置到0.75和0.15进行出图尝试。
从出图可以看到,但是如果设置的重绘幅度过大(重绘幅度:0.75)就会导致出现多头图(见下方图片1),但如果重绘幅度过小(重绘幅度:0.15),虽然图片放大了,但是细节完全没有进行调整(见下方图片2)。
那么我们应该如何既放大图片,又让图片添加细节呢?
这里我们可以使用到tile模型,通过ControlNet的tile模型,可以很好的避免多头图的产生,我们依旧还是使用相同的原图、关键词以及参数设置,并开启ControlNet,选择tile模型(见下方图片),重复幅度我们调整到0.7。
注意:在ControlNet中无需上传图片,仅需要开启、选择预处理器和模型即可(主要看下图中框选出来的内容)。
使用ControlNet的tile模型后,在重绘幅度:0.7时,也可以正常的出图,并且给新图添加了很多细节,特别在头发、面部以及衣服上可以对比出来看到。
重绘幅度调整到0.5后,画面中衣物等元素将会减少一些,更为自然,当然我们可以通过删减关键词来控制装饰元素。
我们尝试一下把新生成的图片(上图),再次发送到图生图中,再使用ControlNet的tile模型+sd放大脚本进行重绘会是什么效果?这里依旧使用重绘幅度:0.5。
我们又成功的将图片进行了细化并且放大了,但是多次的细化和放大,画面中多余的物品以及衣服的细节已经变的奇怪了,所以我们在进行重绘放大时要适量,才能达到更好的效果。
我们可以通过tile模型+SD upscale不断地细化和放大我们喜欢的图片,将图片细化到我们最为满意的程度。
你不可错过的好内容
《ControlNet插件:超强tile模型进行高清修复|丰富细节|Stable-Diffusion》
https://huke88.com/article/8112.html
《Controlnet插件:超强预处理器reference_only完美复刻图片|Stable-Diffusion|AI绘画》
https://huke88.com/article/8111.html
《Stable-Diffusion中二次元/真人角色发型关键词(TAG)效果展示|AI绘画》
https://huke88.com/article/8110.html
《Stable-Diffusion&ControlNet创作角色三视图|快速获取创作灵感》
https://huke88.com/article/8108.html
《Stable-Diffusion脚本:提示词矩阵的用法|快速验证出图关键词》
暂无评论
违反法律法规
侵犯个人权益
有害网站环境