IGEV
IGEV copied to clipboard
[CVPR 2023] Iterative Geometry Encoding Volume for Stereo Matching and Multi-View Stereo
如何获取视差值
作者你好,非常感谢你所作出的卓越贡献。我使用了你预训练好的模型权重,在我所需要的场景下效果很好,但是结果输出的是伪彩图像,我无法获取图中每个像素的具体视差值。请问具体每个像素的具体视差值该如何获取?
Q
为什么用kitti15.pth比用sceneflow.pth在kitti15效果差那么多
onnx模型
请问如何将igev模型的结构和权重转成onnx模型?
请问您在kitti上微调的batchsize设置为多少
为什么不把所有数据用起来,训练成一个模型?
作者你好,类似raft-stereo的shared_backbone选项,大概何时提供支持呢
作者你好,感谢你的工作,我使用在sceneflow上预训练的模型并在kitti上finetune,请问在用kitti训练网络的时候,验证性能没有划分验证集吗?我看evaluate_stereo.py代码中仍然是在训练集上评估性能,没有划分验证集,您是如何挑选最好的模型的呢?目前我看kitti leadboard不再支持调试提交结果了
作者你好: slow_fast_gru选项是用来提高推理速度的,但我看forward部分的代码,n_gru_layers为3时,在开启这个选项后推理时间会增加,代码会重复跑update_block的推理多次,这里是不是有什么问题? 
作者你好,我运行你代码时,执行到这里的报错了  报错内容如下:  请问这种情况该如何解决了? Thank you!
Since all DTU scenes share nearly identical intrinsics and the robotic camera arm targeted the same camera poses in each scene yielding the nearly identical extrinsics, does IGEV-MVS training on...