Wang Yi
Wang Yi
Thanks for your kind reply. I set `strict_type_constraints=True` and got these logs. ``` [TensorRT] WARNING: Tensor DataType is determined at build time for tensors not marked as input or output....
Fixed in: https://github.com/siliconflow/onediff/pull/858
随机初始化的模型,设置成eval时候,bn的running stat可能不稳定导致参数爆炸,可以用预训练的模型权重倒入再测试
nexfort 编译的 options 里面增加一个字段 "inductor.optimize_linear_epilogue": false 试一下呢
`nexfort_compile(your_model, options={ 'inductor.optimize_linear_epilogue': False })`
> > `nexfort_compile(your_model, options={ 'inductor.optimize_linear_epilogue': False })` > > 我是这样输入的,pipe.unet = compile(pipe.unet, backend="nexfort",options={ 'inductor.optimize_linear_epilogue': False }) 还是报错 如果调用 compile 然后显式指定 backend=nexfort 的话,options 应该是 ``` options = { "options": { "inductor.optimize_linear_epilogue":...
> > @marigoold 可以发下总结 > > 请问下这个问题能解决吗 您好,这个现象已经找到问题所在,正在修复,您可以使用 `export ONEFLOW_CONV2D_KERNEL_ENABLE_TUNING_WARMUP=0` 临时应对一下,看看还有没有问题。 另外,如果 vae 编译时候也报错的话,可以在 compile_pipe 里面指定 ignores=["vae"]
> > > > @marigoold 可以发下总结 > > > > 请问下这个问题能解决吗 > > > > > > 您好,这个现象已经找到问题所在,正在修复,您可以使用 `export ONEFLOW_CONV2D_KERNEL_ENABLE_TUNING_WARMUP=0` 临时应对一下,看看还有没有问题。 另外,如果 vae 编译时候也报错的话,可以在 compile_pipe 里面指定 ignores=["vae"] > > @marigoold...
hi @xiongqisong could you please show me how you installed nexfort and your environment (including torch version and cuda version)?
> ``` > from onediffx.lora import load_and_fuse_lora, set_and_fuse_adapters, delete_adapters,unfuse_lora #导入unfuse_lora > > delete_adapters(pipe,'SD15-Megaphone-LoRA') > delete_adapters(pipe,'SD15-IllusionDiffusionPattern-LoRA') > unfuse_lora(pipe) #添加这行代码可以解决 > ``` @vincentmmc @nono909090 @lijunliangTG This solution is **incorrect**. The fundamental reason...