Wav2Lip
Wav2Lip copied to clipboard
训练卡住
edmodel --syncnet_checkpoint_path ./checkpoints/lipsync_expert.pth use_cuda: True total trainable params 36298035 Load checkpoint from: ./checkpoints/lipsync_expert.pth Starting Epoch: 0 use_cuda: True use_cuda: True use_cuda: True use_cuda: True use_cuda: True use_cuda: True use_cuda: True use_cuda: True use_cuda: True use_cuda: True
Solve it?
Solve it?
yes!You need to go into this file and manually set num_workers
to 0
PATH:torch\utils\data\dataloader.py
The data I trained was not very good, the cpu was full during training, but the gpu did not move much!
how to set
how to set
@Canyao45 Modify to your own virtual path!
PATH:C:\Users\admin\.conda\envs\Wav2LipTrain\Lib\site-packages\torch\utils\data
我已经进去了在dataloader.py里面了具体在哪个部分里面修改呢
我已经进去了在dataloader.py里面了具体在哪个部分里面修改呢
189 lines
if persistent_workers and num_workers == 0:
raise ValueError('persistent_workers option needs num_workers > 0')
他好像本来就设置了这样还需要去修改嘛
if persistent_workers and num_workers == 0: raise ValueError('persistent_workers option needs num_workers > 0')
他好像本来就设置了这样还需要去修改嘛
你跑起来了吗?
和你发布问题的情况一样,方便加个微信吗讨论一下
和你发布问题的情况一样,方便加个微信吗讨论一下
What is wechat?
Nothing, thank you for your pointers, I haven't solved this problem yet
和你发布问题的情况一样,方便加个微信吗一起讨论
什么是微信?
你好,我也是遇到了这种情况,如何解决。
how to set
@Canyao45 Modify to your own virtual path!
PATH:C:\Users\admin\.conda\envs\Wav2LipTrain\Lib\site-packages\torch\utils\data
修改了这个也没有解决问题,发现是enumerate(train_data_loader)这个卡住了,有什么办法解决吗?
我解决了这个问题 原因是一个人物下数据太多了
我解决了这个问题 原因是一个人物下数据太多了
请问一个人物下数据太多指的是什么意思啊?