stable-diffusion-webui
stable-diffusion-webui copied to clipboard
inpainting reset [Bug]:
Is there an existing issue for this?
- [X] I have searched the existing issues and checked the recent builds/commits
What happened?
after doing a localized inpainting, and sending the generated image again to the inpaint tab, I notice the brush parts from previous drawing don't show up (before it did) but are still effective and can lead to mistaken inpainting job.
the mask however reappears when clicking the reset buttons (many times depending on how many brush clicks you did)
Steps to reproduce the problem
- Generate an image in txt2img or import an img in inpaint tab
- draw a mask, generate
- send to inpaint resulted image
- the mask will disappear but will be still here, as when clicking on reset it shows up.
What should have happened?
the mask should have stayed visible.
Commit where the problem happens
22bcc7be428c94e9408f589966c2040187245d81
What platforms do you use to access the UI ?
MacOS
What browsers do you use to access the UI ?
Google Chrome
Command Line Arguments
--skip-torch-cuda-test --upcast-sampling --no-half-vae --use-cpu interrogate
List of extensions
no
Console logs
################################################################
Install script for stable-diffusion + Web UI
Tested on Debian 11 (Bullseye)
################################################################
################################################################
Running on jtaillez user
################################################################
################################################################
Repo already cloned, using it as install directory
################################################################
################################################################
Create and activate python venv
################################################################
################################################################
Launching launch.py...
################################################################
Python 3.10.10 (main, Feb 16 2023, 02:46:59) [Clang 14.0.0 (clang-1400.0.29.202)]
Commit hash: 22bcc7be428c94e9408f589966c2040187245d81
Installing requirements for Web UI
Launching Web UI with arguments: --skip-torch-cuda-test --upcast-sampling --no-half-vae --use-cpu interrogate
/Users/jtaillez/stable-diffusion-webui/venv/lib/python3.10/site-packages/torchvision/io/image.py:13: UserWarning: Failed to load image Python extension: dlopen(/Users/jtaillez/stable-diffusion-webui/venv/lib/python3.10/site-packages/torchvision/image.so, 0x0006): Symbol not found: (__ZN2at4_ops19empty_memory_format4callEN3c108ArrayRefIxEENS2_8optionalINS2_10ScalarTypeEEENS5_INS2_6LayoutEEENS5_INS2_6DeviceEEENS5_IbEENS5_INS2_12MemoryFormatEEE)
Referenced from: '/Users/jtaillez/stable-diffusion-webui/venv/lib/python3.10/site-packages/torchvision/image.so'
Expected in: '/Users/jtaillez/stable-diffusion-webui/venv/lib/python3.10/site-packages/torch/lib/libtorch_cpu.dylib'
warn(f"Failed to load image Python extension: {e}")
Warning: caught exception 'Torch not compiled with CUDA enabled', memory monitor disabled
No module 'xformers'. Proceeding without it.
[AddNet] Updating model hashes...
0it [00:00, ?it/s]
[AddNet] Updating model hashes...
0it [00:00, ?it/s]
Checkpoint providence_2110Prelude.safetensors [5997559dad] not found; loading fallback animelike25D_animelike25DV11Pruned.safetensors [4f24a26d75]
Loading weights [4f24a26d75] from /Users/jtaillez/stable-diffusion-webui/models/Stable-diffusion/animelike25D_animelike25DV11Pruned.safetensors
Creating model from config: /Users/jtaillez/stable-diffusion-webui/configs/v1-inference.yaml
LatentDiffusion: Running in eps-prediction mode
DiffusionWrapper has 859.52 M params.
Applying cross attention optimization (InvokeAI).
Textual inversion embeddings loaded(8): ancient-ruin-forest, w3day_14, annalunav1-2000, bad-picture-chill-75v, easynegative, rz-neg-15-foranalog, olfn, dense-forest
Textual inversion embeddings skipped(1): rz-neg-foranalogportrait
Model loaded in 2.2s (load weights from disk: 0.2s, create model: 0.6s, apply weights to model: 0.8s, apply half(): 0.2s, move model to device: 0.4s).
Running on local URL: http://127.0.0.1:7860
To create a public link, set `share=True` in `launch()`.
Startup time: 10.8s (import torch: 2.9s, import gradio: 0.5s, import ldm: 0.4s, other imports: 0.6s, load scripts: 1.0s, load SD checkpoint: 2.2s, create ui: 3.1s).
Loading weights [981e132c36] from /Users/jtaillez/stable-diffusion-webui/models/Stable-diffusion/cyberrealistic_v13.safetensors
Applying cross attention optimization (InvokeAI).
Weights loaded in 2.4s (load weights from disk: 0.2s, apply weights to model: 1.7s, move model to device: 0.4s).
Traceback (most recent call last):
File "/Users/jtaillez/stable-diffusion-webui/venv/lib/python3.10/site-packages/gradio/routes.py", line 394, in run_predict
output = await app.get_blocks().process_api(
File "/Users/jtaillez/stable-diffusion-webui/venv/lib/python3.10/site-packages/gradio/blocks.py", line 1073, in process_api
inputs = self.preprocess_data(fn_index, inputs, state)
File "/Users/jtaillez/stable-diffusion-webui/venv/lib/python3.10/site-packages/gradio/blocks.py", line 962, in preprocess_data
processed_input.append(block.preprocess(inputs[i]))
File "/Users/jtaillez/stable-diffusion-webui/extensions/sd-webui-controlnet/scripts/controlnet.py", line 339, in svgPreprocess
return input_image.orgpreprocess(inputs)
File "/Users/jtaillez/stable-diffusion-webui/venv/lib/python3.10/site-packages/gradio/components.py", line 1610, in preprocess
mask_im = processing_utils.decode_base64_to_image(mask)
File "/Users/jtaillez/stable-diffusion-webui/venv/lib/python3.10/site-packages/gradio/processing_utils.py", line 55, in decode_base64_to_image
content = encoding.split(";")[1]
AttributeError: 'NoneType' object has no attribute 'split'
Loading model: control_sd15_openpose [fef5e48e]
Loaded state_dict from [/Users/jtaillez/stable-diffusion-webui/extensions/sd-webui-controlnet/models/control_sd15_openpose.pth]
ControlNet model control_sd15_openpose [fef5e48e] loaded.
Loading preprocessor: openpose
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 20/20 [00:58<00:00, 2.92s/it]
Total progress: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 20/20 [00:56<00:00, 2.82s/it]
Loading VAE weights specified in settings: /Users/jtaillez/stable-diffusion-webui/models/Stable-diffusion/vae-ft-mse-840000-ema-pruned.vae.pt6<00:00, 2.91s/it]
Applying cross attention optimization (InvokeAI).
VAE weights loaded.
Loading model from cache: control_sd15_openpose [fef5e48e]
Loading preprocessor: openpose
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 20/20 [00:56<00:00, 2.82s/it]
Total progress: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 20/20 [00:55<00:00, 2.77s/it]
Loading model from cache: control_sd15_openpose [fef5e48e]██████████████████████████████████████████████████████████████████████| 20/20 [00:55<00:00, 2.85s/it]
Loading preprocessor: openpose
0%| | 0/40 [00:00<?, ?it/s]Warning: StyleAdapter and cfg/guess mode may not works due to non-batch-cond inference
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [00:53<00:00, 1.34s/it]
Total progress: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [00:52<00:00, 1.31s/it]
Loading model from cache: control_sd15_openpose [fef5e48e]██████████████████████████████████████████████████████████████████████| 40/40 [00:52<00:00, 1.30s/it]
Loading preprocessor: openpose
0%| | 0/40 [00:00<?, ?it/s]Warning: StyleAdapter and cfg/guess mode may not works due to non-batch-cond inference
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [00:52<00:00, 1.30s/it]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [00:51<00:00, 1.29s/it]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [00:51<00:00, 1.29s/it]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [00:51<00:00, 1.30s/it]
Total progress: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████| 160/160 [03:29<00:00, 1.31s/it]
Total progress: 100%|█████████████Loading model from cache: control_sd15_openpose [fef5e48e]██████████████████████████████████| 160/160 [03:29<00:00, 1.31s/it]
Loading preprocessor: openposet/s]
0%| | 0/40 [00:00<?, ?it/s]Warning: StyleAdapter and cfg/guess mode may not works due to non-batch-cond inference
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [00:54<00:00, 1.36s/it]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 20/20 [01:27<00:00, 4.39s/it]
Total progress: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 60/60 [02:41<00:00, 2.68s/it]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [00:23<00:00, 1.72it/s]
Total progress: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [00:23<00:00, 1.70it/s]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [00:48<00:00, 1.20s/it]
Total progress: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [00:48<00:00, 1.21s/it]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [01:15<00:00, 1.88s/it]
Total progress: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [01:15<00:00, 1.89s/it]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [00:48<00:00, 1.20s/it]
Total progress: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [00:48<00:00, 1.22s/it]
10%|████████████▍ | 4/40 [00:05<00:52, 1.46s/it]
Total progress: 12%|█████████████▌ | 5/40 [00:06<00:44, 1.27s/it]
2%|███ | 1/40 [00:07<05:08, 7.91s/it]
Total progress: 2%|██▋ | 1/40 [00:05<03:50, 5.91s/it]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [00:48<00:00, 1.21s/it]
Total progress: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [00:49<00:00, 1.23s/it]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [00:48<00:00, 1.21s/it]
Total progress: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [00:48<00:00, 1.22s/it]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [00:48<00:00, 1.20s/it]
Total progress: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [00:48<00:00, 1.21s/it]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [01:16<00:00, 1.91s/it]
Total progress: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [01:16<00:00, 1.92s/it]
100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [04:39<00:00, 7.00s/it]
Total progress: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [04:33<00:00, 6.83s/it]
Total progress: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 40/40 [04:33<00:00, 6.51s/it]
Additional information
just to git pull tonight.
Getting the same behavior here running build 4b49020. Using Inpaint Upload is also inconsistently inpainting additional unmasked areas for me and I wonder if it's a similar issue where it's retaining data from a previous mask. Inpainting in general is frequently ignoring conditioning mask strength settings and generating as if it were set to 1 even when as low as 0.05
it's retaining data from a previous mask, so for now when you just to do a inpaint job and copy the image into inpaint tab, the solution for me for now, is to not forget to reset the painted zones. Before they use to remain visible (and active) but now they become not visible (and still active)
Also noticed this bug while doing inpaint iterations. I feel it can be really easy to forget what have I painted previously while doing something like this which needs to be iterated many times again and again, hope it can be resolved soon.