Zhengyang Feng
Zhengyang Feng
@flinzhao 嗯你说得对,可能实例的方法更适合你。但你应该需要一个航拍车道线数据集,重新训练BezierLaneNet
可能还要根据线数和图片大小的关系,考虑修改下采样比例
> 感觉如果都是这样的场景可能比前视图的车道线检测难度还要低一些?这些方法的检测精度应该不会太低 也不一定。前视的坐标位置相对固定
@mengxia1994 Do you have many no-lane images in your dataset?
> > @mengxia1994 Do you have many no-lane images in your dataset? > > I also find the problem. It is not actually no lane. A few of them only...
@mengxia1994 1. We set learning rate and others based on validation set performance. While TuSimple can be a rather curious dataset, the best lr may be off. You could try...
lane network online validation currently use seg iou as metric, don't really show much.
@xxKomorebixx 你指的是训练时候把transform到图片外面的部分截掉这一步么?
@xxKomorebixx 这个事情是因为旋转等数据增强策略让图片的部分区域转出,同时车道线也转出,为了严谨性最好是把这部分去掉,所以有了这个处理。 总结一下有两个解决方案,一是忽略这个问题,允许网络预测图片边界外的控制点,测试推理时把图片外的采样点丢弃。二是想办法截取GT,截取方法可以是类似我原来的公式(高阶可能不好推),也可以是重新拟合(要通过并行处理等方式,避免过度影响训练速度)。
> > > > > @xxKomorebixx 这个事情是因为旋转等数据增强策略让图片的部分区域转出,同时车道线也转出,为了严谨性最好是把这部分去掉,所以有了这个处理。 > > > > 总结一下有两个解决方案,一是忽略这个问题,允许网络预测图片边界外的控制点,测试推理时把图片外的采样点丢弃。二是想办法截取GT,截取方法可以是类似我原来的公式(高阶可能不好推),也可以是重新拟合(要通过并行处理等方式,避免过度影响训练速度)。 > > @voldemortX Hi,我尝试了方案一“允许网络预测图片边界外的控制点”,设置了order=4,同时修改了相关配置文件中的参数num_regression_parameters=10。目前模型输出各向量的尺寸均符合预期,模型也可以正常计算出loss值,但是在backward时会报如下错误: > > > 想请教下可能是什么原因呢? 有跟master分支的diff吗,感觉这个报错比较奇怪