hualin he
hualin he
`class WeightedSmoothL1Loss(Loss): """Smooth L1 localization loss function. The smooth L1_loss is defined elementwise as .5 x^2 if |x|
I CANT FIND IT IN THE MODEL_ZOO OF CENTERTRACK
could you share your code of the PointPainting with your fusion mechanism? iwant to know how to fuse .thanks
我看别人能复现有点疑惑,这里面库都不全,实例变量(self.trackers)都不知道在哪定义的也能用吗?
作者您这个工程很容易理解也很容易复现,但是我还是有个问题,我看了下最新的pillars的评估结果,发现mmdet3d精度是要略微高一些的,我看了下不同的地方大概在以下几点: 1.学习率设置,官方是0.001,这个工程是0.00025,我相信这是您调试出来的较好的lr。 2.在pillar_encoder里,目前官方代码好像是不再用offset去代替原始绝对坐标了。我不太清楚目前到低使用哪个效果较好。 3.数据增强方面,不管是sample_group还是db_filter您应该是在原始的基础上又进行了调整,不知道我的猜想是否正确。 4.分布式训练所带来的提升,这一点我无法肯定,因为我没有那么多显卡去验证。 最后我再问下,您使用的坐标系最后是激光雷达坐标系吗?
HELLO,sir,take the liberty to disturb you,I have read your article on Clocs,now ,i want to merge 2D with pointpillars using Clocs,what do i need to do?Let me first tell you...
我看到您在使用KITTI数据集时的内参矩阵使用的是P2的前三列,其最后一列相对于0号相机的位置关系并没有被用到,但是外参矩阵又左乘了R0_rect,我不太能理解为什么不使用P2的最后一列,是不是因为这样的话内参矩阵就不是3by3的了,但是如果不加上相对于0号相机的偏移的话会造成投影不准确。您有什么解决办法吗,就是把P2最后一列用上,或者说我该如何使用3by4的内参矩阵
Hello, first of all, thank you for your work. I have read your paper, do you think it is necessary to fuse image features on Lidar, but at the same...
Hello, first of all, thank you for your excellent work. I would like to ask whether there is a trained weight on nuscenes, because my computer can not run training,...
Problem description: I trained a custom dataset using openpcdet, and because the dataset contains the same object at different heights, I generated anchors for the same object at different heights,...