HengfanLi
HengfanLi
> 我在config_training.py更改了文件路径信息之后,跳入prepare.py进行数据预处理,为什么处理之后的结果clean.npy的值全是170,mask.npy的值不是全true就是全Flase,这个数据显得并不正常。请问是哪里出了什么问题嘛,各段代码又挺正常,有大佬解解惑嘛,非常感谢 请问你解决了吗,可以交流一下吗。我的qq是1401210020
> Dear zunzhumu, > > Hi! > > I have this problem, why the loss is zero > > INFO:root:Train Epoch: 160 [0/6 (0%)] cls_Loss: 0.000000 shape_loss:0.000000 offset_loss:0.000000 giou_loss:0.000000 INFO:root:====>...
> 对,以前代码比较乱所以我重构改版了,新的dataloder用的是ct图像或者MR图像做其他项目的检测,重构后代码后没有直接跑luna16,重构前的v2版本跑过luna. 你好作者,请问您是否还能提供重构前的v2版本跑过luna跑过luna的代码。我调了你给的重构训练代码啥的,始终不太对。我的邮箱是[email protected]。
> 你好,我好像没有找到luna16的训练文件,只找到了luna16_preprocessing.py,是否可能分享一份LUNA16的训练文件或者指导我如何进行训练呢? 你好,请问您跑出来了吗。可以交流一下吗。我的QQ是1401210020。
> > Reduce hyperparameter "ignore_ratio" in networks/ResNet_3D_CPM/Detection_loss class can reduce GPU memory. > > 谢谢您的回复,我待会修改下试试。目前我已经调通整个代码,并且可以在显卡上正常训练,但是当我训练时,为什么会出现卡死的情况呢? 就是训练到某一轮(卡死的轮数没有固定)不再输出任何信息,train.log文件中也不更新,这个情况需要怎么解决呢?  就像上图这样,直接卡在[7420/639(83%)]这个位置,不再输出后面的轮数信息,我设置的轮数是400 > > ———————————————————————————————————————————————————————— 刚刚修改ignore_ratio,将它改成18,训练时还是会卡死,这次卡在第2轮 [280/639(3%)]这个位置上  卡死时,GPU有显卡占用率一直处于100%  你好,可以交流一下吗,我的QQ是1401210020.我想问问怎么修改代码并且训练的,谢谢你。