dandelion-chu

Results 5 comments of dandelion-chu

> 做了一点改进,用法向量对点云的高斯分布进行初始化,使其在平行于物体表面的方向进行优化、分裂和合并。FAST-LIVO2能够直接输出符合Colmap格式的数据,可以直接给到3DGS (这部分开源😉) 您好,请问LIVO2输出colmap格式数据这个功能,能简单说下大概思路么?目前想自己实现这部分,遇到问题了,不知道坐标系是不是有特殊要求?

> > > 做了一点改进,用法向量对点云的高斯分布进行初始化,使其在平行于物体表面的方向进行优化、分裂和合并。FAST-LIVO2能够直接输出符合Colmap格式的数据,可以直接给到3DGS (这部分开源😉) > > > > > > 您好,请问LIVO2输出colmap格式数据这个功能,能简单说下大概思路么?目前想自己实现这部分,遇到问题了,不知道坐标系是不是有特殊要求? > > 您好,请问您实现了吗,目前我实现了通过激光计算的slam位姿转换成colmap格式数据,但是最终3DGS的效果比直接用纯图像做3DGS的还差一点。可以一起交流下。 你好,我这边改了坐标系之后也可以了,我是直接把建图的bag拿过来测试的,一直向前走,训练角度看着还可以吧,可能适合我没有多角度环绕拍摄有关,自由角度没法看

> > 你好,我这边改了坐标系之后也可以了,我是直接把建图的bag拿过来测试的,一直向前走,训练角度看着还可以吧,可能适合我没有多角度环绕拍摄有关,自由角度没法看 > > 我的训练角度也很好,但这个大概率是过拟合了,PSNR高达35,但是其他角度就一般般,很模糊 是的,我训练的PSNR也三十多的样子,其他视角很糊 ![2](https://github.com/user-attachments/assets/0ecb2f68-8acc-4adc-84cf-aacea5becd47)

> 我认为是拍的不够密或者位姿不准,3DGS的结果怎么样 您说的是训练之后评估的PSNR,SSIM这些指标吗?我这边因为显存不足,所以把data_device = "cpu",后面评估的数据看不到,只能看到打印前面的 ![image](https://github.com/user-attachments/assets/0ab0f469-ecc7-4191-8840-af50794246dc)

> > 是的,一般希望LiDAR和相机的FoV重合得越多越好,这样其实标定也比较容易。Mid360更适合搭配广角鱼眼相机,而Avia则更适合搭配针孔相机。选型没问题的话,两种LiDAR都能得到不错的效果。 > > _Originally posted by [@xuankuzcr](https://github.com/xuankuzcr) in [#50](https://github.com/hku-mars/FAST-LIVO2/issues/50#issuecomment-2621556802)_ > > 郑博好,我尝试使用mid360+广角的鱼眼相机,运行fast-livo2的效果上色精度有较大偏差。 > > 已经修改camera.yaml 中的cam_model: PolynomialCamera。 > > 粉色是地面的颜色,墙面是白色的。从建图效果上来看墙面的一部分也上成粉色了。 > > 是因为鱼眼自身的畸变原因吗? > > ![Image](https://github.com/user-attachments/assets/d21728cb-cc69-4ed9-9010-3426b2ec5337) 您好,请问您是用什么方法标定鱼眼相机内参的呢?能指教一下么?谢谢,我这边也是一直上色感觉有问题~~