JustC0deIt
JustC0deIt
首先感谢你们团队的努力。 由于我是win系统,在使用prepare.py生成模型时colmap.exe会报错,也许是缺少各种dll导致的。因此我通过colmap.bat手动生成了点云模型,目录如下  然后我模仿样例数据制作了如下图的目录。   我不确定我这样的做法是否正确,然而在我运行以下代码  出现了报错  我不确定为什么无法从我的数据集中提取到pose信息 希望你能帮我看看问题出在哪里,十分感谢。 @liuyuan-pal
感谢你们团队的努力贡献!我在学习使用时遇到了一些问题。 我对自己的充电头进行了拍摄,然而通过predict.py得到的结果有严重的偏差,如图:   我注意到GenMOP数据集中有plug_cn这一物体  于是我对自己的充电头进行拍摄,并将GenMOP中plug_cn-ref中的文件按照Custom_object中的目录存放,如下:   database.db是我在colmap上生成的,meta_info.txt是参考custom_object中的流程制作的,Z+的方向我也特别进行了翻转:  最后执行predict.py  得到最开始展示的结果,  对比GenMOP中eval得到的结果:  我对这种偏差感到疑惑,特别是在检测上出现这么大的偏差,我在反思是不是哪一步数据处理出现错误。我也不确定在eval.py对GenMOP中的数据进行推理时有没有用到mask中提供的信息。 希望您能给我一些提示和帮助,以及如果后续我想微调detect,或者增加关键点的检测,有没有什么好的建议。再次对你们团队表示感谢! @liuyuan-pal
首先非常感谢你们团队的努力,让我们看到了如此好的结果。 我现在想将这个项目用于一些特殊工业产品的部件分割中,因此我们会更加关注“特定部件”的分割表现。但是这些“特定部件”通常有以下几个特点: 1.它们的边缘的细节比较重要 2.它们的体积只占整个产品的一小部分 我认为2048个点云难以将这些特征保留下来,因此我在考虑能否通过增加输入的点云数量,以及如果增加这些输入我在后面的网络中该如何进行调整,训练的难度是否会大大上升。 或者在点云的采样策略上有没有一些技巧,例如我们想在凹凸不平,部件程现圆形的这些区域尽可能多的采样,在类似圆柱体这一类较为光滑的区域上较少的采样。
Thank you for your efforts. I am amazed by the results.Now I want to use my imu data to predict position and pose, How do I preprocess data.
Thank you very much for this awesome repository! I want to know how I can find the 3D point cloud coordinates corresponding to the 2D feature points in each image...