在Stable Diffusion中选择了正确的大模型和LoRA模型后,配合适当的关键词,要创作一张效果不错的图并不难。
但是我们出图的小姐姐的姿势都有很大的变化,这种抽卡的随机性很大,要让AI真正可控,这里我们就需要运用到一个非常实用的插件
那就是在ControlNet插件,ControlNet插件可以让我们出图时,精准控制人物的动作
如果大家的Stable Diffusion没有ControlNet插件,可以再github上获取安装地址
https://github.com/Mikubill/sd-webui-controlnet.git,把这个安装地址复制到Stable Diffusion webui中进行插件安装即可
下面就是ControlNet在Stable Diffusion的功能截图,这次我们要讲的是ControlNet其中一个功能Canny边缘检测,这个预处理器就可以让我们很好的控制小姐姐的动作了
如果大家想要了解更多关于ControlNet的详细介绍,不可错过这个教程:https://huke88.com/course/153071.html(这个教程详细介绍了ControlNet插件的详细介绍和使用)
这里我们介绍一下如何通过Canny边缘检测来控制小姐姐
首先我们启用ControlNet,预处理器选择Canny边缘检测,模型选择control_sd15_canny
点击上传图像,选择一个我们最终成图想要的姿势图
接着点击“预览预处理结果”
然后我们就可以看到ControlNet里出现预览效果图了
可以从Annotator result中看到,ControlNet把人物的边缘轮廓都处理出来了,这样我们后续再生成图时,就可以根据这个预览效果控制动作
接下来只要按照之前成图的步骤流程,输入Prompt和Negative prompt
选择大模型,也可以适当添加一些LoRA模型
当然我们可以再stable diffusion的图片信息中,获取图片信息
点击文生图,系统会自动把所有信息带入到文生图中(在这里可以看到,我们原本的图片动作和我们希望创作的图是完全不同的)
信息带入到文生图后,点击可以修改Prompt,也可以完全不修改,直接点击生成
稍等片刻后,即可获得一张动作完全保持一致的图了
在Stable Diffusion中可以看到一张成图和一张边缘图
接下来,我们可以调整Prompt(关键词)来创作更多姿态可控的小姐姐了
你不可错过的内容:
Stable Diffusion控制成图视图 萌新控制成图人物视角
https://huke88.com/article/8069.html
使用Midjourney的图生图 创作连续的画面内容
https://huke88.com/article/8066.html
Midjourney更新Niji version 5(Niji 5)发布,看看有何变化
https://huke88.com/article/8058.html
解锁ChatGPT发送图片功能 一句话搞定!
暂无评论
违反法律法规
侵犯个人权益
有害网站环境