smittenx
smittenx
郑博你好,我是之前尝试用rgbd相机来复现该算法的,然后,处理脚本写完之后,整个跑的时候漂移情况比较严重,因为有涉密问题,所以也没法上传图片和文件,我这边大概说下我这里目前情况: 1. 我计算了下imu和图像的时差(图像时间戳距离最近的imu时间戳差值),均值2ms,但最大时候会接近20ms,我这里之后尝试对imu的数据进行插值,生成图像时间戳时刻的imu的值,但实际效果并不理想,这块可能原因是什么,还有什么解决办法吗? 2. 我看了这边其它的issue,我这边初始化时候,开始运行时候保持静止3s以上这个是必须的吗?就我这块一开始飞的非常严重,但之后有保持静止一段时间再进行移动,但移动出来的效果还是漂移严重。 3. 我这边运行时候比较卡顿,这块我目前不太确定原因,感觉可能是漂移太严重,导致生成地图点云数量太多?或者是rgbd相机本身生成的单帧点云也非常稠密 感谢郑博! https://github.com/hku-mars/FAST-LIVO2/issues/223
郑博你好,如标题所示,我目前手里有一个质量还可以的RGBD相机,激光雷达因为不能进行硬同步,所以暂时没有办法满足这个算法的硬件需求,但我现在又比较想做下测试,所以我想就利用rgbd相机来实现这个算法,具体方法如下: 1. 不考虑实时或者bag包形式的运行 2. 该rgbd深度图和images是硬同步的,同时自带imu(imu没做同步,但频率200hz),所以我可以事先先将每一帧深度图转化为点云图,来代替硬同步的激光雷达,然后rgb相机就利用rgbd本身的rgb图像,通过修改算法的输入接口,将imu数据,rgbd点云数据以及rgb图像数据一起输入进入FAST-LIVO2算法中 3. 请问上面的方式是否有可行性,我现在比较担心的是mid360本身的fov和利用rgbd得到的点云fov差距较大,可能实际效果无法满足slam的要求