本次我们使用的云运算平台依旧是Autodl,大家可自行百度搜索,这里就不赘述登录注册的细节了,如果你有使用过stable diffusion相信这些都不是难事。
首先需要在autodl中选择一个GPU,这里随意选择一个即可,无需选择价格过高的GPU,例如我选择的RTX A5000也就差不多了。
在社区镜像里输入“DragGAN”,社区镜像中提供了四个已经配置好的DragGAN镜像文件,我们这次演示的镜像文件是“XingangPan/DragGAN/DragGAN:v1”,点击“创建”,即可完成(若账户没有余额的话,需要先充值2-3元即可)。
创建完成后,点击快捷工具中的“JupyterLab”。
如下图所示,打开“JupyterLab”后会看到下面的界面,点击三角运行按钮。
程序会自动执行,需要稍作等待,一直等待出现Running on local URL: 127.0.0.1:6006后才算运行完成。
回到实例界面,点击“自定义服务”,即可打开DragGAN的webui界面。
打开后就可以正常操作DragGAN了,整体功能比较简单,只需要设定起始点和终止点,点击开始即可运行,但是目前还是有缺陷,无法替换自己的图片到DragGAN中去,这里官方给出的回应是“This GUI supports editing GAN-generated images. To edit a real image, you need to first perform GAN inversion using tools like PTI. Then load the new latent code and model weights to the GUI.”所以大家目前作为体验即可,后续也希望可以尽快进行整体和升级。
你不可错过的好内容
《LoRA+ControlNet|不破坏原图添加海量细节|AI绘画》
https://huke88.com/article/8160.html
《Midjourney+Stable Diffusion 多角色图片细节放大处理|AI绘画》
https://huke88.com/article/8159.html
《TEXTUAL INVERSION模型介绍:Clutter (Mechanical)(机械)|stable diffusion》
https://huke88.com/article/8157.html
《TEXTUAL INVERSION模型推荐:badhandv4优化/改善手部细节|stable diffusion》
https://huke88.com/article/8156.html
《LoRA模型推荐:仙侠类LoRA模型 | 法天象地 | 道友,修仙吗?| Stable Diffusion》
https://huke88.com/article/8146.html
《Stable Diffusion插件:ControlNet的安装与模型下载教程》
暂无评论
违反法律法规
侵犯个人权益
有害网站环境