tuolaku

Results 10 comments of tuolaku

i love U guys! need WAN2.1 14B 720P FP4,hhh

After compiling and installing the latest sageattention, I ran into the same problem: launching Comfy with the official workflow and the "--use-sage-attention" flag produces black images. Everything went back to...

> 嗨,你们的 GPU 型号是什么?我见过 sageattn2 Triton 内核在 RTX 30xx (sm86) 上出现黑色图像的情况。 > > 您可以修改这一行:https://github.com/thu-ml/SageAttention/blob/15c0e22197f0cc9e96757d8fb11b75c284e7ef97/sageattention/core.py#L144 将其更改为 ,则 sageattn2 将默认使用 CUDA 内核而不是 Triton 内核。`if arch in {"sm80", "sm86"}:` > > 或者,您可以在节点中选择 CUDA...

> 嗨,你们的 GPU 型号是什么?我见过 sageattn2 Triton 内核在 RTX 30xx (sm86) 上出现黑色图像的情况。 > > 您可以修改这一行:https://github.com/thu-ml/SageAttention/blob/15c0e22197f0cc9e96757d8fb11b75c284e7ef97/sageattention/core.py#L144 将其更改为 ,则 sageattn2 将默认使用 CUDA 内核而不是 Triton 内核。`if arch in {"sm80", "sm86"}:` > > 或者,您可以在节点中选择 CUDA...

> 在 30xx 以外的 GPU 上,我不知道任何快速修复方法。它可能与 [comfyanonymous/ComfyUI#8689](https://github.com/comfyanonymous/ComfyUI/issues/8689) 有关,人们已经调试了很长时间。 OK, Thank you for your hard work and dedication.

In latest version, the error is as follows: assert dtype in [torch.float16, torch.bfloat16], "Input tensors must be in dtype of torch.float16 or torch.bfloat16" with Merge Loras is ON. This can...

I sincerely hope that kijai can merge it into the main branch, because holoCine can truly narrow the gap with closed-source models. plz look at this: https://github.com/user-attachments/assets/1ef729e0-aa11-4bf1-943a-140331f0e7a2

> 它没死......只是我忙于白天的工作。 > > 我会尽量赶上问题并理清。 Please..... ~~>_

> 所以,对我在这里发现的任何东西都持保留态度。我_不是_程序员,也不是程序员。所有这些都只是反复试验和 Claude 4 的一点帮助。我只是想找人考虑添加对这个模型的支持,所以我只是在试验我非常有限的编码和编程知识。 > > 但是,我设法让 TeaCache 使用 ComfyUI-TeaCache 加载,因此我们不得不抵消一些缺失的属性,例如“time_in”和“vec”。 > > 但是一旦我们让它起作用,起初似乎系数是完全错误的,但似乎发生了完全不同的事情,因为无论我们尝试什么,即使是“[1.0, 0.0, 0.0, 0.0, 0.0]”,在 0.264 和 0.265 之间也有一个_硬_阈值,它不会移动或移动。在 0.265 或更高版本上,TeaCache 会缓存,但非常激进。在 0.264 或更低版本下,它基本上会被禁用,没有明显的缓存效果。 > >...