-
7刚才在搞人物设定,大概就是文生图输入“一个女性XX(职业)”。主要是想看服饰搭配 但模型很蛋疼的是 出来的只有少数是符合职业的服装,大多时候都是给比基尼/内衣的情况(这还是在我负面给了NSFW的情况) 我就想问问有什么 能让角色衣服正常一点多一点。 animagineXL是有这方面的控制词的,PONY系有么?
-
6
-
1
-
3安装了新的xformers也还是报错,大佬们看看咋回事? A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.
-
10
-
4不用controlnet的时候没问题,用controlnet时,出图总批次数设置无论几,就只能正常出第一张,后面的全是黑图。。。这是怎么回事
-
15
-
20
-
6照着教程弄,没找到这个名字的模型呢
-
3
-
7
-
3如题,正常文生视频可以,但没法视频转绘,上传了视频跟没传一样,controlnet不起效,显示这个 *** Error running process: D:\sd-webui-aki-v4\extensions\sd-webui-controlnet\scripts\controlnet.pyTraceback (most recent call last):File "D:\sd-webui-aki-v4\modules\scripts.py", line 718, in processscript.process(p, *script_args)File "D:\sd-webui-aki-v4\extensions\sd-webui-controlnet\scripts\controlnet.py", line 1215, in processself.controlnet_hack(p)File "D:\sd-webui-aki-v4\extensions\sd-webui-controlnet\scripts\controlnet.py", line 1200, in contr
-
815113如果想画瑟图就选这个模型准没错,比sd1.5强太多,极大节省修图时间,人物动作不仅好看并且出错概率相比sd1.5也小,目前唯一不足就是lora太少,想固定人物风格比较难。0想要通过图生图把物品放到生成的图片中,且需要和图片中的人物模特合理的融合在一起,比如手机图片生成一个模特拿在手中。 这种能实现吗?能实现的话采用什么方案,Lora吗还是需要训练融合模型? 感谢大佬们解答~~090报错 os.symlink(cnet_annotator_dir, sam_annotator_dir, target_is_directory=True) OSError: [WinError 1314] 客户端没有所需的特权。: 'D:\\ai\\sd-webui-aki-v4.4\\extensions\\sd-webui-controlnet/annotator' -> 'D:\\ai\\sd-webui-aki-v4.4\\extensions\\sd-webui-segment-anything\\annotator' 解决 cmd管理员 C:\Windows\System32>mklink /D "D:\ai\sd-webui-aki-v4.4\extensions\sd-webui-segment-anything\annotator" "D:\ai\sd-webui-aki-v4.4\extensions\sd-webui-controlnet\annotator " 为 D:\ai\sd-webui-aki-v4.4\extensions\sd-webui-segment-anything\annotator <<===&g02sd的模型都是在哪里下的?就是比较官方的网站。7有没有大神讲一下详细点的方法0我的wd1.4标签器反推不出来提示词,怎么办82013之前用1.5练了一个冷门的人物lora,最近听小马很神,也想着sdxl能解决一些1.5的毛病,比如分辨率低,出图画质不清爽,总有点糊糊的。手部问题很难解决,但是昨天准备用小马原版的v6作为底模搬迁原来的lora,第一个遇到的问题是秋叶启动器练sdxl只能用专家模式,很多参数需要设置,我直接网上超了一份,先出货,再微调,这个没问题,能练,第二个问题就是训练时间太长了,之前的训练集1.5需要12小时,sdxl直接3倍时间,达到36小时,瞬间给我干怂1没其他意思 我就想问下1最近玩sdxl感觉3060ti吃不消了,训练lora六七秒一步5我是 8g 显存的 3070,用 sdxl 模型的 controlNet 不勾选显存优化会非常慢,一张 1024×1024 的图要一个半小时, 这速度正常么,开了显存优化直接快了 20 倍!,图一是开显存优化速度,图二是打开后再关闭,之前没注意显存优化选项,都是 200 秒每步。 所以 跑 sdxl 用 controlNet 8g 显存必须开显存优化吗820我看外网说效果不太行?3929有没有什么办法,可以直接获取模型支持的提示词列表。4mac版stable diffusion,点击生成按钮会提示python意外退出 loc("varianceEps"("(mpsFileLoc): /AppleInternal/Library/BuildRoots/b6051351-c030-11ec-96e9-3e7866fcf3a1/Library/Caches/com.apple.xbs/Sources/MetalPerformanceShadersGraph/mpsgraph/MetalPerformanceShadersGraph/Core/Files/MPSGraphUtilities.mm":219:0)): error: input types 'tensor<1x77x1xf16>' and 'tensor<1xf32>' are not broadcast compatible LLVM ERROR: Failed to infer result type(s). zsh: abort ./webui.sh5037rt,我在本月11日和19日分别冲了100计算节点+pro会员,也就获得了200计算节点 每天用t4gpu随便泡泡图,基本上一个月就够用了。 昨天下午的时候看了下,还剩140多计算节点,关闭运行 然后晚上就只剩下39计算节点了…… 突然少了100计算节点。 github上发了个问题,目前好像还没人回复11我一直出图出都很正常,昨天下午突然就显存不足了,本身图片尺寸就很小,512*800,后来调成512*512也不行,这是为啥呀。搞了一天了也没能明白。75我的是a卡6650xt8g,用pony跑1024的不会爆显存,但是用sd1.5的跑1024就爆显存了,怎么办呀17rt,还有它们的lora 融合模型 是什么改的。93