IGEV
IGEV copied to clipboard
[CVPR 2023] Iterative Geometry Encoding Volume for Stereo Matching and Multi-View Stereo
Please provide an online example. Maybe on https://huggingface.co Or https://replicate.com/
作者您好!非常感谢您的工作和贡献!我使用在Middlebury公开数据集预训练的模型权重,直接通过demo_imgs.py对一对双目图像进行了推理预测,效果还挺好的。这里提问一个简单的问题。 1. 推理出来的图片是视差图吗(刚接触立体匹配方面),如果我对已经推理过的双目图像对中的左目图像中的某个像素坐标获取的直接是真实世界坐标吗?如果不是,是否需要相机真实标定参数进行转化。
根据 disparity map 计算实际 distance ,远距离测距误差会达到10-20%,无论是通过回归法还是三角法
作者您好,学习了您的代码,demo_imgs.py和train_sterep.py 我从输入和输出上理解是输入(left_img, right_img),输出left_disparity,即只输出left_disparity。 - 请问该模型是否有能力合理输出右图的视差的能力?即如果输入(lright_img, left_img),输出right_disparity,按照视差定义来说。输出的right_disparity应该都是负值。但我使用了您提供的sceneflow.pth,并调换了您提供的Motorcycle示例图的左右顺序,输出的right_disparity效果明显变差,且输出的视差图tensor都是正数,不符合视差定义。不知道是否需要修改哪里的代码。 - 如果需要重新训练,我手边是有左视图和右视图GT_disp的数据的,不知道如何修改网络结构,使得该网络能够同时训练左和右视图的视差。即做到输入(right_img, left_img),能够合理输出right_disp。 谢谢~
Hello, Thank you for your wonderful work. I am testing your MVS network. use pretrained model dtu.ckpt. and test scannet the scan1 result is like  The fused point cloud...
作者大大你好,我在复现IGEV的时候显示只加载了sceneflow中的flythings3d,driving和monkaa没有加载,你是只在flythings3d上预训练IGEV吗
# why I found that `--save_numpy` option in IGEV-Stereo/demo_imgs.py is not working as expected. ``` cd IGEV-Stereo python3 demo_imgs.py --restore_ckpt sceneflow.pth -l=../test_data/left.png -r=../test_data/right.png --save_numpy usage: demo_imgs.py [-h] [--restore_ckpt RESTORE_CKPT] [--save_numpy...
训练的问题
作者一般训练多久,用你的3090举例子,我训练自己的数据时,好像要几天几夜,不知道作者训练了多久
双目标定结果差
作者好,请问一下对于双目外参标定结果差的情况,IGEV效果如何。IGEV从原理上强依赖双目标定结果吗