lmpeng12
lmpeng12
> switched to windows, first time was ok second video: > > DDIM Sampler: 100%|████████████████████████████████████████████████████████████████████| 20/20 [00:10
> > 第一个视频时长 2 秒,第二个视频时长 9 秒 > > 也许长度是一个问题? > > 在您的情况下,是否生成了一些图像,但有些图像没有生成,而不是丢失所有图像?如果是这样,Ebsynth 在某些子进程上会失败。 我不确定确切的原因。但当**工作量很大或者GPU几乎用完时,我们偶尔会观察到类似的情况**。由于我们不是 Ebsynth 的开发者,因此我们不知道如何修复 Ebsynth。 > > * 我认为一种解决方案是使用较少的多重进度,例如设置`--n_proc 2`或`--n_proc 1`或使用较小的图像分辨率。 > * 另一个简单的解决方案是在图像丢失的时间间隔手动运行 Ebsynth。例如,如果您发现 0002 丢失,您可以运行:...
> > same problem > > DDIM Sampler: 100%|████████████████████████████████████████████████████████████████████████| 20/20 [00:11
重新加一下?
> 非常抱歉,由于开源的 lora 模型格式比较乱,我现在还做不到都兼容;对于目前兼容的 lora 模型,lora 权重需要单独传入,参考 https://github.com/Artiprocher/DiffSynth-Studio/blob/main/diffsynth/pipelines/stable_diffusion_video.py#L272 哦哦,好的,谢谢。我当时也是只测试这个lora模型,发觉权重调了也没有起作用,而且debug的时候显示有加载模型,如果作者大大有可以使用的方便的时候分享一下
> > 非常抱歉,由于开源的 lora 模型格式比较乱,我现在还做不到都兼容;对于目前兼容的 lora 模型,lora 权重需要单独传入,参考 https://github.com/Artiprocher/DiffSynth-Studio/blob/main/diffsynth/pipelines/stable_diffusion_video.py#L272 > > 哦哦,好的,谢谢。我当时也是只测试这个lora模型,发觉权重调了也没有起作用,而且debug的时候显示有加载模型,如果作者大大有可以使用的方便的时候分享一下 作者您好,vae模型的话,是否就传入模型的时候,直接自己设计一个读取规则后在encoder和decoder的两个model中去加载就可以了?这两个model的显示权重加载正确
所以,要怎么解决,固定了scale,加上exp的参数,就是会出现这个问题
> 我也好奇 怎么解决? 但不加上exp的数值,其实是不会有这个问题,我个人感觉是模型的拖动拉伸生成有一定的形变导致的,从而在部分视频中看起来头部大小不够稳定
> 这里有:https://github.com/modelscope/DiffSynth-Studio/tree/main/examples/train > > 用 model_manager 加载模型之后,调用 `model_manager.load_lora` 即可加载 lora,由于开源 lora 模型结构比较混乱,我们写了脚本做自动匹配,例如,你可以在 kolors 模型上加载 sdxl 的 lora。如果遇到部分 lora 暂未支持,请给我们提 issue 您好,请问有尝试怎么去视频sdxl hyper的这个lora模型加载吗?那个2步,4步和8步的lora模型。