ycj1124
ycj1124
大佬您好 我想问一下 您这个跑到最后得到的是不是一个float的数组呀?如果我想转化为Mat数组进行操作,具体要怎么做呢?是不是想如图中这里在ShowDisparityMap函数中的操作就是在转化为Mat呀?disp_mat就是得到的Mat类型的数组? 
关于结果的测试
看了您的AD-Census以及PatchMatch这两个项目,想问下您有相关的测试代码嘛?因为我之前跑的是 https://github.com/WangHewei16/Stereo-Matching 这个项目中Tablecode中的测试Error_Non31这个测试代码,但是目前感觉有几个问题:1.想问下生成的这些各种各样的图片的对应关系,因为在 https://github.com/WangHewei16/Stereo-Matching 这个项目中,生成了许多的结果,比如生成了许多注入dispLR,dispBoth这样的图片。 您生成的是视差图,和我生成的视差图在使用测试代码的时候结果差异很大,比如这张图片是使用您的代码生成的结果以及他这个项目生成的结果对比,我用测试代码运行您的patchmatch得到的图片(view1.png-d.png),以及另一个项目得到的图片(203_dispLR_so.png)去分别测试做对比,结果发现您的图片得到的结果错误率为99%。 然而实际上肉眼可见您的方法生成的图片效果更好,是什么原因导致的这样的结果呢?是因为生成的图片的格式问题嘛?因为我看到您的方法生成的图片的灰度貌似看上去和他这个项目生成的图片灰度不一样2.可以把AD-Census以及PatchMatch两个算法取各自最优的部分结合起来,然后得到更好的测试结果吗?3.您有专门用来测试的更好的测试代码吗?谢谢!
看了您的AD-Census以及PatchMatch这两个项目,想问下您有相关的测试代码嘛?因为我之前跑的是 https://github.com/WangHewei16/Stereo-Matching 这个项目中Tablecode中的测试Error_Non31这个测试代码,但是目前感觉有几个问题:1.想问下生成的这些各种各样的图片的对应关系,因为在 https://github.com/WangHewei16/Stereo-Matching 这个项目中,生成了许多的结果,比如生成了许多注入dispLR,dispBoth这样的图片。 您生成的是视差图,和我生成的视差图在使用测试代码的时候结果差异很大,比如这张图片是使用您的代码生成的结果以及他这个项目生成的结果对比,我用测试代码运行您的patchmatch得到的图片(view1.png-d.png),以及另一个项目得到的图片(203_dispLR_so.png)去分别测试做对比,结果发现您的图片得到的结果错误率为99%。 然而实际上肉眼可见您的方法生成的图片效果更好,是什么原因导致的这样的结果呢?是因为生成的图片的格式问题嘛?因为我看到您的方法生成的图片的灰度貌似看上去和他这个项目生成的图片灰度不一样2.可以把AD-Census以及PatchMatch两个算法取各自最优的部分结合起来,然后得到更好的测试结果吗?3.您有专门用来测试的更好的测试代码吗?谢谢!
I found a program using lazepose:https://github.com/Atzingen/QuickiumGymI I download the requirements as the requirements.yml follows,when I try to run the quickium_solution.py,it happened like this : Pose detection blob file : /home/ycj/QuickiumGym-main/scores/blazepose/models/pose_detection_sh4.blob...
sorry sir ,but could you give an instrcutions about the code in the shell about how to train and test?
使用博主的代码生成的pth文件是这种zip的形式  打开后里面是这个样子的   所以在运行predict.py时会读取不了我的pth文件。怎么做到和官方的预训练权重(如下图pth)一致的格式呢? 
HRNet从头开始训练,跑了209个epoch之后,突然报了这样的错: Epoch: [209] Total time: 1:06:31 (0.8526 s / it) Test: [ 0/199] eta: 0:18:38 model_time: 0.5503 (0.5503) time: 5.6187 data: 3.6315 max mem: 5210 Test: [100/199] eta: 0:00:53 model_time:...
when I run :"python tools/test.py \ --cfg experiments/coco/hrnet/w32_256x192_adam_lr1e-3.yaml \ TEST.MODEL_FILE models/pytorch/pose_coco/pose_hrnet_w32_256x192.pth \ TEST.USE_GT_BBOX False" to test on COCO val2017 dataset using model zoo's models,it occurs the error: => creating output/coco/pose_hrnet/w32_256x192_adam_lr1e-3...
您好,在您的相关代码中,哪部分是生成这种视差图片的地方?我现在想验证我自己的一个双目算法,得到了视差图后,不知道具体要怎么生成我算法的视差文件,希望您能指点一下,在哪个地方的代码说的是生成视差文件? 