Yu Sun

Results 301 comments of Yu Sun

可以把93-95行删掉

这个Mesh是vedo 库的一个类,是在from vedo import *导入的,其实有没有smooth区别不大,去掉也可以。 你可以试着更新一下vedo的版本,可能就没这个问题了

您是在服务器上跑的么?show_mesh_stand_on_image 和 interactive_vis都需要在具有操作桌面的机器上跑才可以,因为可视化渲染需要的一些硬件在服务器这种没有可视化功能的设备上没有。

@QiAnBozZ ,您好,是的! kp3ds用于监督3D pose的时候,都是采用根节点配准后的3D关节点位置用于监督的。 新版本中传给模型监督用的root_trans是处理过后,将各个数据集不同相机空间的trans, 用pnp转化到我们预定义的一个标准相机空间里了。 https://github.com/Arthur151/ROMP/blob/bafc86897c387caae125e7119b31dc30ee317bf0/romp/lib/dataset/image_base.py#L399 这样便于训练,因为我们的输入图片的相机参数是未知的。

@ArtiX-GP Sorry for the late reply. I don't get it. To fine-tune an existing model, please set, for example, in `v1.yml`. https://github.com/Arthur151/ROMP/blob/7b4734270672e602f4fc5659d37479478e72b78b/configs/v1.yml#L18 ``` fine_tune: True model_path: /path/to/model.pkl ```

这个我们也在做,主要是模型的不确定性导致的,从每一帧估计的结果不太稳。确实是没有加基于优化方法的后处理,大部分动力学约束都是在后处理里的。

wow,你的demo有点酷啊!高手你好~ 这个原因是因为ROMP估计的相机参数是输入图片中人的位置。输入图片是原图经过处理之后的,可以看一下[处理过程](https://github.com/Arthur151/ROMP/blob/35e8de60531dc57989f5e35be19505b450e3f679/romp/lib/dataset/internet.py#L42),或者直接用ROMP输入网络的图作为渲染图比较方便。 如果还有问题可以直接问,我看到后会尽快回复的。 闲话:你的这个项目会开源么?看起来挺酷,哈哈。如果有计划地话,我可以把项目链接放在ROMP readme里,帮你推广一下。

我知道了!我的相机参数的定义和你的函数反应出来的定义不太一样。你看你第一次给我的可视化demo里,tx,ty都乘2可能就对了。 我相机是以图片中心(256,256)为相机坐标中心(0,0)的,tx,ty是(-1,1)对应于(0,512)。所以从我的tx,ty转变成原图的坐标位置直接(tx+1)/2*720就行了。不知道你理解了吗?

因为我的相机参数是标准化后的,始终认为图片大小是-1~1,跟具体图像大小无关。 前半部分对说明转换关系对,后面不对应该是你其他代码有问题。

感谢bug report。我整理代码的时候没注意到这点,给您带来了困扰,抱歉了。 可能会对在h36m上刷点有点影响,因为不直接拟合GT的domain了。但我个人觉得可能比较统一的监督更有利于基于SMPL模型的方法的训练,当然只是一些个人理解。