DeepLiDAR
DeepLiDAR copied to clipboard
Deep Surface Normal Guided Depth Prediction for Outdoor Scene from Sparse LiDAR Data and Single Color Image (CVPR 2019)
十分感谢您将这份优秀的代码开源,而且这对我正在研究的方向十分有用。由于没有注释,我在读一些地方有些困难。之前通过邮件向您询问多有打扰,如果您有时间的话可以在这帮我解答一下疑惑吗? Q1.trainN,trainD和train是单独训练的吗?如果只需要最后的深度图,我是否只需要训练train就好?因为我没有发现他们之间有参数共享,可能是因为我没有发现。 Q2.可以请您回答一下,这里训练网络生成法线的意义吗?我没有发现在生成深度图时使用到了生成的法线。 Q3.valid_mask = (target > 0.0).detach() //这里当target大于零时阶段其梯度的意义是什么呢? Q4.outC, outN, maskC3, maskN3, normals2 = model(inputl, sparse, mask) //这里的mask代表什么呢?是lidar的数据吗?那生成的maskN3,maskC3又代表什么? 如果有时间还请您解答一下,十分感谢!!!
Hello, JiaxiongQ! When I run test.py, I am a little bit confused about the save of dense depth image, can u tell me what u consider about the save process....
Hello JiaxiongQ! I begin to train this excellent work recently use KITTI datasets same as you said in README.md. And I want to know how to inference my own datasets...
您好,感谢代码的开源。 想跑您的代码,第一步surface_normal文件夹中应该怎么使用?我是想基于kitti提取。 是直接调用tool.cpp中的calplanenormal吗? 希望得到您的回复,谢谢。
你好 看了您的代码和相关论文材料,关于训练过程和使用到的数据集我有以下几个疑问, 1、使用合成数据集去训练normal估计网络模块,该部分的参数在之后的训练过程中就保持不变了,是吗? 2、然后使用trainD.py训练后面的网络,这里使用的训练数据集是kitti数据集吗?为什么trainD中使用的模型没有attention 模块呢? 3、再执行train.py进行整体模型的训练,这里也是使用的kitti数据集吗? 4、如果是上面的训练过程,是不是根本不需要计算kitti数据的法线呢? 麻烦你了,期待你的回复 谢谢~祝好!
你好 我想问下您最后是如何将估计的单通道的深度图显示成您论文中的彩色图片的? 我用其他方法试过,都不太理想,所以想问下您是如何转换为彩色图片的 期待你的回复,谢谢
issue
您好: 首先很感谢能开源这么优秀的代码,但是在复现您的训练过程时我产生了一些困惑,希望您能解答我的困惑,谢谢! 使用trainN.py来训练网络模型的第一部分,主要使用到dataloader模块下的trainLoaderN.py和nomalLoader.py,其中,nomalLoader.py将需要使用的三种数据的路径用三个list保存下来,然后,利用trainLoaderN.py去加载数据。我的困惑有3点: 1.我下载了KITTI数据集,有三个压缩包,在这里应该只使用到了2个,分别是data_depth_velodyne和data_depth_annotated。data_depth_velodyne好像是稀疏的雷达数据,data_depth_annotated比较稠密,是不是就是利用data_depth_annotated中的数据来产生surface normal的呢? 2.您还使用到彩色图片,请问your_filepath/data_depth_velodyne/train/../image_02/data/和相应的image_03/data/下的color image文件是在KITTI哪个tab下载下来的? 3.您在nomalLoader.py中将color image的左右图像的路径好像都是用一个列表对象imagesl存储的,训练时不用分清楚是左图还是右图吗?
Thanks for your wonderful work! I encountered some problem while visualizing the results on kitti using your pretrained model. I ploted the results ('pred') from test.py(pred, time_temp = test(imgL, sparse,...
Thank you for sharing the code and synthetic data. I would like to ask two questions: 1. Could you please confirm if the released lidar data (e.g., "000020.bin") records the...