IGEV
IGEV copied to clipboard
如何输出right图的视差
作者您好,学习了您的代码,demo_imgs.py和train_sterep.py 我从输入和输出上理解是输入(left_img, right_img),输出left_disparity,即只输出left_disparity。
- 请问该模型是否有能力合理输出右图的视差的能力?即如果输入(lright_img, left_img),输出right_disparity,按照视差定义来说。输出的right_disparity应该都是负值。但我使用了您提供的sceneflow.pth,并调换了您提供的Motorcycle示例图的左右顺序,输出的right_disparity效果明显变差,且输出的视差图tensor都是正数,不符合视差定义。不知道是否需要修改哪里的代码。
- 如果需要重新训练,我手边是有左视图和右视图GT_disp的数据的,不知道如何修改网络结构,使得该网络能够同时训练左和右视图的视差。即做到输入(right_img, left_img),能够合理输出right_disp。
谢谢~