Midjourney作为在AIGC领域中表现非常优异的一个工具,与stable diffusion也是各有优劣,Midjourney可以通过自然语言描述以及非常简单的设置(只需要/prompt即可),就可以生成中效果比较出众的图片,无论是多角色或是单角色,不同风格的图片在Midjourney中生成都比较简单,但是Midjourney也有弊端:
1、无法深入刻画画面细节,在Midjourney若生成多角色图时,往往大效果不错,但是细节不足
2、画面内容可控性不足,如果想要针对参考图进行二次优化,Midjourney几乎很难做到
3、图片分辨率受限,Midjourney中生成的图片分辨并不是很高,那么图像清晰度就不足了
所以我们可以让Midjourney和stable diffusion结合使用,借助stable diffusion中的功能进一步完善图片细节和放大图片(这个取决于显卡的运行能力)。
启动stable diffusion后,我们选择图生图功能,上传在Midjourney中生成的图片(见下方截图)。参数中需要注意宽度和高度尺寸要与原图尺寸保持一致,至少比例上不能发生变化。采样迭代步数可以根据实际需求调整30~50都行,重绘幅度可以调整至0.5~0.7之间。
这里关键词设置有2个选择:1、可以直接使用在Midjourney中使用的关键词(prompt);2、使用图生图中的关键词反推。整体效果差异不大。
启动“ControlNet”,选择tile_resample预处理(不了解tile_resample预处理的,可以先学习此视频:https://huke88.com/course/155917.html),tile中无需上传图片,参数默认即可。
再开一个ControlNet,我们选择reference_only预处理器,需要上传原图,主要用来控制新生成的图片与原图的差异,参数默认即可。
并且选择脚本中的使用SD放大(SD upscale)进行图片放大处理,SD放大(SD upscale)的好处在于可以减轻显卡的压力,如果直接调高宽度和高度生成图片,显卡可能就炸了,但是使用SD放大(SD upscale)的话压力就会小很多。
所有设置都完成后,点击“生成”,具体生成的过程有长有短,根据各自的显卡来定了。
从最终新生成的图片来看,stable diffusion把画面进行了很好的细化,原本灰蒙蒙的大色块区域也有了细节,骷髅的面部、各种武器、背景的城堡都有了各自的样式。
当然如果觉得过于细节,也可以调整tile模型、重绘幅度等参数进行调整,从而达到最终满意的效果。
你不可错过的好内容
《LoRA模型:用Stable Diffusion也可以生成Midjourney风格的可爱猫猫/狗狗了|AI绘画》
https://huke88.com/article/8158.html
《TEXTUAL INVERSION模型介绍:Clutter (Mechanical)(机械)|stable diffusion》
https://huke88.com/article/8157.html
《TEXTUAL INVERSION模型推荐:badhandv4优化/改善手部细节|stable diffusion》
https://huke88.com/article/8156.html
《LoRA模型推荐:让你的出图人物/角色带上Vision Pro|stable diffusion》
https://huke88.com/article/8155.html
《LoRA模型推荐:2D/3D随心切换,让大模型在2D/动画<->3D/逼真切换|Stable Diffusion》
https://huke88.com/article/8154.html
《LoRA模型推荐:什么,只要这个LoRA让出图都变成线稿!|Stable Diffusion》
https://huke88.com/article/8149.html
《LoRA模型推荐:仙侠类LoRA模型 | 法天象地 | 道友,修仙吗?| Stable Diffusion》
https://huke88.com/article/8146.html
《Stable Diffusion插件:ControlNet的安装与模型下载教程》
暂无评论
违反法律法规
侵犯个人权益
有害网站环境