xueshanzhizhi
xueshanzhizhi
I got the same problem.!It seems is the limit of this algorithm. If there is any good solution let me know.
> 多谢楼主回复。 我现在跑到 已经设置了sample size 设置为500了。还是需要加载8个小时。如果我将其改为50,加载一会就回自动停止的。实在没办法,我就等等。我不知道是不是我配置的问题。我的配置如下: Linux mlssdi010002 3.10.0-1160.88.1.el7.x86_64 #1 SMP Tesla M40 24GB CUDA Version: 11.7 Python 3.10.9 torch 2.0.0 easydict 1.9 einops 0.4.1 如果我直接跑训练会不会快点?是不是真的要iter138k次?那也会挺久的。 最后,非常感谢楼主提供这个开源项目!我自己是一个书法爱好者和练习者。等这样的产品很久了。以前的产品确实都比较呆板,没有灵活。依据神经网络的这个模型估计会有惊喜。期待!
> 你的pytorch是GPU版本的嘛?我怀疑你用的是CPU在跑模型,所以跑起来很慢 我排查了一下,我pytorch应该是GPU版本的,但是正如你所说,感觉真的用了cpu在跑。 我先将pytorch重新安装了一下,确保是GPU版本: >>> import torch >>> print(torch.__version__) 2.0.1+cu117 >>> print(torch.cuda.is_available()) True 然后跑起来,发现GPU,CPU都有消耗,cpu消耗得比较夸张。如图。   感觉确实是没有用到gpu,奇怪了,楼主看看能知道是什么问题不。
> > 代码中模型和数据都默认执行了`.to('cuda')`。或许运行的时候指定下GPU能够解决这个问题,使用如下指令: `CUDA_VISIBLE_DEVICES=0 python test.py ...` > > 感谢您的及时回复,我试了一下还是不行,而且根据图2和图3我发现确实是在使用cpu。图二是运行test时,图3是未运行test时。    是的 我试过用用 CUDA_VISIBLE_DEVICES=0 python test.py ... 还是一样
 不过我换成v100 后跑起来快一点 需要两个半小时的加载时间。可惜是每次都加载一般就自动断掉了。
> 那可能是环境的问题。我是在`RTX 3090`上跑的,软件环境如下: > > ``` > python 3.8 > pytorch 1.8 > easydict 1.9 > einops 0.4.1 > ``` 请问你的 显卡是那个型号的 v100? A100?