EDC

Results 5 comments of EDC

Fpointnet本来就是一个基于2D目标检测结果,通过对2D检测的框直接做投影获得3D的点云视锥所以他原本2D的检测模块是没有公布的,只公开了他们用的2D检测结果txt,当然他这个结果也有不少问题我们是自己实现一个2D检测结果把所有图跑一边存下来就可以用了。至于one hot vec就是基于label所得到的目标类别,独热编码你可以搜搜看,n*3同时只有1个为1的表示目标属于哪一类,用来做最后回归,n应该是目标数量记不清了 ------------------ 原始邮件 ------------------ 发件人: "chonepieceyb/reading-frustum-pointnets-code"

sry最近有点忙,Fpointnet本来就是对2D检测的结果框进行3D投影得到点云的视锥,然后对点云的视锥直接进行学习。你可以好好看下prepare_data里,先跑prepare_data然后把所有2d label做一些预处理坐标转换等存在pickle文件里,然后整个模型都是读取pickle文件,至于你说的生成3dbox,这个就是最后和模型输出的3dbox做损失的label,而通过2d box进行视锥投影得到的点云视锥里其实还有很多不在3d box里的点云,所以我还不是很清楚你的问题是什么,欢迎交流反正 ------------------ 原始邮件 ------------------ 发件人: "chonepieceyb/reading-frustum-pointnets-code"

他公开的源码中label中的2d信息是他自己用了一个检测器之后跑出来的反正,至于数据预处理那块是我之前另一个组员负责的我不是很清楚,但是大概率是激光雷达数据中自带的转换坐标系矩阵,具体的你可以好好看下kitti数据集下velodyne里面详细的数据格式 ------------------ 原始邮件 ------------------ 发件人: "chonepieceyb/reading-frustum-pointnets-code"

没有激光雷达的话这个网路就对你没什么帮助了....fpointnet主要的操作都是对激光雷达的点云数据做的,至于标注有一个VGG Image Annotator的,手动标注这个误差就很大了反正,标注得好坏直接决定网络效果,我们就是直接用的kitti公开的点云label,建议你先好好看一下kitti数据集所提供的所有label信息 ------------------ 原始邮件 ------------------ 发件人: "chonepieceyb/reading-frustum-pointnets-code"

test.py是那你训练好的模型跑一边测试集然后把测试结果写成txt存在哪个路径下,具体想看你可以自己写一个可视化脚本读取生成的txt然后在对应的图片点云里画出来 ------------------ 原始邮件 ------------------ 发件人: "chonepieceyb/reading-frustum-pointnets-code"