Render different perspectives
Hello, thank you very much for your work. I would like to ask, after obtaining the Gaussian model, how to render a perspective different from the pose of the photo in the input data set? Look forward to your reply!
Hi! Thanks for your in interest. You can use the viewer to adjust the camera view freely. If you want to choose perspective yourself you must provide the extrinsics by yourself.
Hi! Thanks for your in interest. You can use the viewer to adjust the camera view freely. If you want to choose perspective yourself you must provide the extrinsics by yourself.
非常感谢!实验代码最后生成的Gaussian文件中有一个字段是mask,请问如果我用Gaussian splatting源码生成一个Gaussian文件,在用您的代码渲染scene时,会有影响吗?这里的字段mask是要用在readme里的哪一步呢?
当使用viewer可视化场景时应移出mask这一字段,因为3DGS提供的全套代码中没有涉及mask这一参数。在使用我们的代码进行渲染时理论上不会有影响,如果有什么问题可以随时在这里提问我
抱歉再次打扰,在跑完prompt_segmenting.ipynb后,获得的最终mask如下,我有以下疑问期望得到解答:
- 这里的mask比mask_id=0的部分又多出来了一些,是对之前的0和1mask进行了类似合并的操作吗,如何尽可能与mask0相像?
- 使用该mask对Gaussians进行分割时效果很差,几乎对输入Gaussians没有进行分割,该怎样进行优化呢
补masks
这个应该是SAM的预测结果,而不是SAGA的预测结果,请调整输入SAM的prompt位置,以及输入的点的数量,或加入negative points来优化SAM的分割结果。
非常感谢,请问应该怎么操作来加入negative points呢?我还比较好奇分割是否只是根据单张图片就获取到3d mask的,如果我在有高斯模型后,只保留一张图片,是否还能得到一样的分割结果呢(因为我看代码是只用到了一张图片吧,如果有遗漏请您指正)?
还有如果已有高斯模型时使用渲染图片代替使用输入图片的话,会影响分割吗,因为我觉得应该是用输入图片和渲染图片做比对了才有最后的3d mask进行分割
非常感谢,请问应该怎么操作来加入negative points呢?我还比较好奇分割是否只是根据单张图片就获取到3d mask的,如果我在有高斯模型后,只保留一张图片,是否还能得到一样的分割结果呢(因为我看代码是只用到了一张图片吧,如果有遗漏请您指正)?
当前我们的脚本里没有添加negative samples,其一是因为基于SAM的dense prompt效果已经够好了,其二是negative prompt的表现十分不稳定。
在推理阶段确实是通过一个视角获得了分割结果,但是在训练特征场的时候是需要多视角信息的。
还有如果已有高斯模型时使用渲染图片代替使用输入图片的话,会影响分割吗,因为我觉得应该是用输入图片和渲染图片做比对了才有最后的3d mask进行分割
影响相对较小,因为其实3DGS的渲染效果相当不错,和GT没有太大的差别。
好的,感谢您的耐心解答,非常感谢!