firespace924
Results
1
comments of
firespace924
> > 我不知道这是否会影响我生成时的任何内容,我缺少这个剪辑: ['clip_l.logit_scale', 'clip_l.transformer.text_projection.weight'] 正在加载 1 个新模型 C:\Users\heruv\ComfyUI \comfy\ldm\ module\attention.py:345: UserWarning: 1Torch 未使用 flash 注意进行编译。 (在 ..\aten\src\ATen\native\transformers\cuda\sdp_utils.cpp:263 内部触发。) out = torch.nn.function.scaled_dot_product_attention(q, k, v, attn_mask=mask, dropout_p=0.0, is_causal=假) > > 我在使用便携式...