Orekishiro
Orekishiro

> Excuse me, Did you encounter the following issue when training gen1 data? File "D:\ems\EMS_Origin\EMS-YOLO\g1\models\yolo.py", line 128, in _forward_once x = m(x) # run File "C:\Users\user\anaconda3\envs\pytorch\lib\site-packages\torch\nn\modules\module.py", line 1501, in _call_impl...
> > In your paper, you use EMS-Res10 model and achieve 0.267 mAP on Gen1 Dataset, but I used the framework you provided to train on the Gen1 dataset, I...
> @Orekishiro I can train now!, but when I did val, my P、R、map all are zero. Did you changed the val or something else? Or you have already tested on...
> >  > > 我看您的结果的map在训练一段时间后呈下降的趋势,请问这是这个代码的问题吗还是其他的问题 这个我估计过拟合了,可能是我参数设置问题,后来我换了个res34,基本上能有0.3多
> > > >  > > > > > > > > > 我看您的结果的map在训练一段时间后呈下降的趋势,请问这是这个代码的问题吗还是其他的问题 > > > 这个我估计过拟合了,可能是我参数设置问题,后来我换了个res34,基本上能有0.3多 > > > 噢噢噢噢明白,我想请问下您的那个事件数据集是怎么放的,我最近开始跑那个事件数据集的代码,数据集放的一直不对 EMS-YOLO他这个框架的逻辑,应该是先用give_g1_data.py缓存下来了事件表示和label标签,之后再用datasets_g1T.py进行加载。 我是对数据集加载部分进行了修改,将数据集分别放入train/val/test文件夹下,根据传入的mode确定加载的数据集,然后重写了加载逻辑。 EMS-YOLO应该是参考https://github.com/loiccordone/object-detection-with-spiking-neural-networks/ 这个项目中的datasets/gen1_od_dataset.py 写的数据加载,EMS用的Yolov3框架和他的区别在于需要预先加载所有的Label进行自适应锚框。
> @Orekishiro 所以你會先用give_g1_data.py 生成出.npy檔案後 再用datasets_g1T來create_dataloader是嗎 这个没有,我没用他原来代码读取。我是先找label的时间戳,然后截取这一段的事件转为numpy存储,同时生成事件表示,再重写了一个Dataset读的numpy文件,其实逻辑和原EMS是相同的。 当然你也可以参考 https://github.com/uzh-rpg/RVT RVT提供了Gen1和1Mpx数据集的h5文件(包括原始的事件和20通道的事件表示),逻辑上和读dat没啥区别,但h5占用硬盘空间要小一些。
> 但是我如果將label的框往左上角調整,就會換成我training時的框也跟著往左上角偏移導致沒有抓到 我也可视化过,Anchor是能够对上的;有可能anchor格式问题,你可以确定一下是目标框的左上顶点,(x1,y1,w,h),还是目标框的中心(xc,yc,w,h),看你的结果好像左上顶点正好在物体中心位置,有可能是这里出了问题。 
> ## @Orekishiro 请问您有没有遇到过这个tensor的问题, File "E:\EMS-YOLO-main\models\yolo.py", line 137, in forward > input[i] = x > RuntimeError: expand(torch.cuda.FloatTensor{[2, 5, 3, 320, 320]}, size=[2, 5, 3, 320]): the number of sizes provided...
> @Orekishiro 感謝你的回覆! 想問你有對val.py做修改嗎,因為我發現蠻多部分有缺少的 这里我记得我好像是直接将那个import DetectMultiBackend给注释掉了,其他部分好像没有太修改,这个具体的记不太清了。