crownZ

Results 15 comments of crownZ

我也是这个问题,就转到这个repo了。。。

后续又进行了测试,发现确实是bug。在第二个epoch中,图片大小固定为544,不会随着multi_scale的代码改变。 ``` Epoch:[ 1 | 49 ] Batch:[ 0 | 2068 ] loss_giou: 4.5290 loss_conf: 5.0386 loss_cls: 3.1196 loss: 12.6872 lr: 5e-05 torch.Size([8, 3, 544, 544]) torch.Size([8, 3, 544, 544])...

但今天在自己电脑上测试的时候,发现又没有问题了。经过后续测试,发现是train_dataloader的num_workers数量问题,如果置为0,作者的multi_scale代码正常运行,但是如果num_workers置为cpu总核数,代码就会出现我上面描述的问题。

> > 但今天在自己电脑上测试的时候,发现又没有问题了。经过后续测试,发现是train_dataloader的num_workers数量问题,如果置为0,作者的multi_scale代码正常运行,但是如果num_workers置为cpu总核数,代码就会出现我上面描述的问题。 > > 你的pytorch版本是啥 我的torch版本是1.7.1

> > > > 但今天在自己电脑上测试的时候,发现又没有问题了。经过后续测试,发现是train_dataloader的num_workers数量问题,如果置为0,作者的multi_scale代码正常运行,但是如果num_workers置为cpu总核数,代码就会出现我上面描述的问题。 > > > > > > > > > 你的pytorch版本是啥 > > > > > > 我的torch版本是1.7.1 > > 我的是1.0.0的,使用前请看一下开源代码软件硬件环境,这是最基本的。你可以换成1.0.0再试一下这个多尺度训练是否有效果 好的,谢谢

> > > > 但今天在自己电脑上测试的时候,发现又没有问题了。经过后续测试,发现是train_dataloader的num_workers数量问题,如果置为0,作者的multi_scale代码正常运行,但是如果num_workers置为cpu总核数,代码就会出现我上面描述的问题。 > > > > > > > > > 你的pytorch版本是啥 > > > > > > 我的torch版本是1.7.1 > > 我的是1.0.0的,使用前请看一下开源代码软件硬件环境,这是最基本的。你可以换成1.0.0再试一下这个多尺度训练是否有效果 我刚刚进行了测试,python的库版本跟requirements.txt完全符合,但打印出来的img.size,表明multi_scale仍然是不起作用的。 我个人觉得是num_worker设置非0时,多线程加载数据所导致的问题。 在ultralytics的repo中也出现了这个问题,他刚开始通过硬编码,通过让num_workers=0来解决。后来,直接改成每个batch都会做一次multi_scale,同时表明这样做不会对训练造成很大影响。 链接: [https://github.com/ultralytics/yolov3/issues/174](https://github.com/ultralytics/yolov3/issues/174)...

> > > > > > 但今天在自己电脑上测试的时候,发现又没有问题了。经过后续测试,发现是train_dataloader的num_workers数量问题,如果置为0,作者的multi_scale代码正常运行,但是如果num_workers置为cpu总核数,代码就会出现我上面描述的问题。 > > > > > > > > > > > > > > > 你的pytorch版本是啥 > > > > > > >...

兄弟,你直接在PC版本上面打了补丁就能玩吗?我的是宽字节转换等错误直接进不去。

我换了个游戏资源,就能进游戏了。到这里也报错了,同样也不能保存。

> > 我换了个游戏资源,可以进游戏了。到这里也报错了,同样也不能保存。 > > 保存只能够使用快捷保存和游戏首页的继续游戏才能够读 嗯确实,但不跳过那个出错场景的话,就不能继续玩下去,要么只能是看CG了