xiaokn
xiaokn
> You can add the code, which is very simple. For example, when it is judged that the vanishing point changes very little, it is considered that the vehicle is...
> 您好, 请问lidar2imu的自动标定部分有没有基于ros直接订阅相关话题进行标定的版本? 基于ros的版本可以基于lidar2imu的代码进行修改,本代码仓是专门去ros的,所以没有任何关于ros的适配
- 手动标定需要手动参与 - 自动标定不需要手动参与,但是有一些环境录制数据的要求 - 在线标定是不需要环境和录制数据的要求,在正常行驶下进行标定 - 一般lidar2惯导标定越精确,说明匹配的比较精确,进而拼接的点云特征会越细
> 返回值: d 和 d_max 的具体含义是指什么? 监测到的直线 最远点到直线的距离吗? 这里直线是如何定义的呢? 这样验证内参是否具有可靠性 这里主要验证畸变系数的,d代表点到直线的平均距离,d_max代表点到直线的最大距离。 意义: 如果去畸变效果越好,我们认为去完畸变之后直线的弯曲程度应该越小
> 我现在需要将相机雷达和IMU标定到一起,可以通过IMU作为媒介分别将雷达和相机相互标定实现三者的联合标定吗? 另外这个工程是不是缺少相机和imu的标定方法, 谢谢 这里用的都是pose_sensor (imu+INS),可能imu标定的话需要把内参也加进来优化?
> 您好,我运行了你们的testdata,效果非常不错 但是我按照论文换用了kitti数据集((09/26/2011 drive 0015),结果lidar和image都检测不到特征了,请问是需要改什么设置吗 下面是运行时的打印日志: center_camera-intrinsic top_center_lidar-to-center_camera-extrinsic [pcl::SampleConsensusModel::getSamples] Can not select 0 unique points out of 0! [pcl::RandomSampleConsensus::computeModel] No samples could be selected! [pcl::SACSegmentation::segment] Error segmenting the model! No...
> Hi all, I aim to use your calibration solution for the camera/IMU. I have a question please, how can I get the initial guess about extrinsic parameters for the...
> lidar不是右手坐标系吗?正常右手坐标系,y轴指向左侧,那么左上点的y值应该比右上角的y值大才对呀, carla是左手坐标系,里面Y轴是朝右边的
> > > carla > > > > > > 好的 多谢 请问您有用这个方法标定过实际的场景吗 我最近标定实际场景 发现效果比较一般 当然这和我采集的数据应该有一定的关系 > > 我采集的数据 大概距离车3m到4m左右, 请问用这样的数据标定之后 远距离的精度是不是会降低,误差随着距离的增加进一步被放大? 有些公司用的实际数据上标定精度还挺高的,具体可能也要看情况,比如传感器,标定板,数据质量等。一般来说如果有远处的标志物可能更好一点,但是标定间一般空间有限,如果能保证近处足够准,远处一般也相对来说是准的。
> 您好,请问相机到地面的单应性矩阵初始值您是用什么方法求出来的 一般是通过相机到地面的外参转换过去的,或者通过一些测距方法计算得到