Yu Sun
Yu Sun
[这里](https://github.com/Arthur151/ROMP/blob/1b1c37322f7096da5f544b11a1e1c1c13bf6a259/romp/lib/models/modelv1.py#L34)会自动加载pretrain_hrnet.pkl,用于快速训练。ROMP并没有2d pose的head。
2-3个epoch左右,如果你的batch size是64/32的话,参见[这个issue](https://github.com/Arthur151/ROMP/issues/121)
Q1 & Q2: 在我实验的P40 GPU上跑是论文中的值,后面我也发现了在1070Ti上测试是你的那个值。MPJPE上的差别主要是和模型的拟合数据集的情况有关系,越贴近测试集的domain,MPJPE会越好,而PMPJPE则可以克服domain的gap,更多反映姿态的准确度。HMR伦文中也有类似的讨论和图证。 Q3:用model_path并没有成功加载pretrain_hrnet.pkl,从log就可以看出,backbone的参数一个都没加载上,因为model_path对应的加载函数有prefex,没有加载成功相当于从0开始训。ROMP的loss收敛是到了一定程度会阶梯性的下降,我训过很久了,但他还在收敛,就挺神奇的。loss收敛慢是因为监督方式的原因。detection用的heatmap的训练是整张图都可以获得监督的,但parameter map每次只是采样少量几个点的值进行监督,kernel的训练密度相对较低,所以需要更长时间的训练,我也试过ttfnet那种dense supervision的形式,但显卡跑不下,就没有继续探索。 我正在整理我自己用的强化版训练代码,并且重构ROMP,会有更多的优化,让模型表现更稳定高效。 欢迎交流讨论~
Q0: 你说的有这个有可能。太久远了,并没有特意留tensorboard,不过我在尝试重新从0跑一遍,还需要一段时间才能跑完。 Q1:pretrain_hrnet.pkl本身也需要训很久,只是为了方便大家,加快训练,特制的。 Q2:backbone的参数量占模型的主体部分,它的特征质量相应的影响很大。 Q3:你指的那个log可能也不小心用了pretrain。强化版代码主要是调整了loss的设计和数据增强的方法,让模型可以更好地适应不同尺度的人,重点还是放在模型加速上,我还在整理这部分代码,抱歉还不能给出明确的时间。 Q4:确实从0训练需要2个星期以上的时间,我目前在京东AI研究院实习,使用他们的计算资源。不太清楚怎么搞到计算资源。。
记得最终指标和64并没有多大差别,所以后面一直64来训的。
Here is the [instruction](https://vedo.embl.es/autodocs/content/vedo/plotter.html?highlight=plotter#vedo.plotter.Plotter) to change [this line](https://github.com/Arthur151/ROMP/blob/35e8de60531dc57989f5e35be19505b450e3f679/romp/lib/visualization/vedo_visualizer.py#L66). Just change to ` plt = Plotter(size=(h,w),bg=[240,255,255], axes=0, offscreen=not interactive_show)` I guess
I am back. Hi, @jinfagang I have tested that the right way to achieve this is to change [this line](https://github.com/Arthur151/ROMP/blob/35e8de60531dc57989f5e35be19505b450e3f679/romp/lib/visualization/vedo_visualizer.py#L94) from ```image_result = plt.show(camera=self.default_camera)``` to `image_result = plt.show(camera=self.default_camera, size=(800,600))` 
Hi, @jinfagang Bro~ Please set the Plotter back to `plt = Plotter(bg=[240,255,255], axes=0, offscreen=not interactive_show)`, change the line I metioned above only. > I am back. Hi, @jinfagang I have...
You can change the `'far': (0, 800, 1000)` to other coords. Assuming that people locate at the origin (0,0,0), you can change the camera location from (0, 800, 1000) (horizental,...
Of course! Good question! Q1. The dropped paramereters of 2 hand joints describe the 3D hand posture, which is not estimated by ROMP. So we drop them. Q2. The rest...