Kkun12345

Results 6 comments of Kkun12345

> 模型参数需要进行编码后再存储,编码后的文件在./bitstreams文件夹中。(也就是那些.b文件) point_cloud.ply是原始的模型参数,并不是编码后的文件。 训练完后,你可以删去point_cloud.ply,因为模型参数都已经被编码存储在./bitstreams文件夹中了。 你应该查看./bitstreams文件夹的大小。 您好,请问存储大小是看bitstreams文件夹中所有文件的大小,还是只需要看anchor.pkl文件的大小呢。我在A100上跑了drjohnson数据集,单看anchor.pkl文件是4.87MB,整个bitstreams文件夹的大小是17.9MB,和论文中的7.67都相差较多。怎么计算存储大小才是正确的呢? 感谢您的耐心解答

> > > 模型参数需要进行编码后再存储,编码后的文件在./bitstreams文件夹中。(也就是那些.b文件) point_cloud.ply是原始的模型参数,并不是编码后的文件。 训练完后,你可以删去point_cloud.ply,因为模型参数都已经被编码存储在./bitstreams文件夹中了。 你应该查看./bitstreams文件夹的大小。 > > > > > > 您好,请问存储大小是看bitstreams文件夹中所有文件的大小,还是只需要看anchor.pkl文件的大小呢。我在A100上跑了drjohnson数据集,单看anchor.pkl文件是4.87MB,整个bitstreams文件夹的大小是17.9MB,和论文中的7.67都相差较多。怎么计算存储大小才是正确的呢? 感谢您的耐心解答 > > 你好,我们在跑的时候没有遇到这个问题。你的问题可能是训练时的随机性所致,建议你可以尝试使用最新的代码再重新跑一遍。另外,关于文件的大小建议参考我们的output.log文档,里面的数值更准确。 ![捕获](https://github.com/user-attachments/assets/a967d0d0-4d9a-4ce0-85a0-d5a0f420d162) 是看这个total的大小吗,这里的大小也是将近16MB,和整个文件夹大小差不多的

> > > > > 模型参数需要进行编码后再存储,编码后的文件在./bitstreams文件夹中。(也就是那些.b文件) point_cloud.ply是原始的模型参数,并不是编码后的文件。 训练完后,你可以删去point_cloud.ply,因为模型参数都已经被编码存储在./bitstreams文件夹中了。 你应该查看./bitstreams文件夹的大小。 > > > > > > > > > > > > 您好,请问存储大小是看bitstreams文件夹中所有文件的大小,还是只需要看anchor.pkl文件的大小呢。我在A100上跑了drjohnson数据集,单看anchor.pkl文件是4.87MB,整个bitstreams文件夹的大小是17.9MB,和论文中的7.67都相差较多。怎么计算存储大小才是正确的呢? 感谢您的耐心解答 > > > > > > >...

> Thank you for your answer I tried to change --data_device to cuda:1, but it still doesn't work. Is it my misunderstanding? May I ask how did you modify the...

> I haven't tried it specifically, but my understanding is that data_device only supports switching between CPU and GPU, but does not support selecting specific GPU serial numbers Ok, Thank...

> for convert.py try colmap parameters in the code --SiftExtraction.use_gpu 0 --SiftMatching.use_gpu 0 > > for trainig.py you can try https://github.com/graphdeco-inria/gaussian-splatting?tab=readme-ov-file#--data_device --data_device cpu sorry, I tried to change --data_device to...