lin1061991611
lin1061991611
Hi,when i run this code with my own dataset,it errors as: ``` Use config: {'CONST': {'DEVICE': '0', 'NUM_WORKERS': 0, 'N_INPUT_POINTS': 2048}, 'DATASET': {'TEST_DATASET': 'Completion3D', 'TRAIN_DATASET': 'Completion3D'}, 'DATASETS': {'COMPLETION3D': {'CATEGORY_FILE_PATH': './datasets/Completion3D.json',...
你好,我在训练的时候按照python main_Semantic3D.py 中的说明运行代码时cfg设置成了--mode train --gpu 1,但在训练过程中并未占用显存,请问这是否已经在调用GPU训练了
你好,我在查看预测结果时看到一个M行N列的pmask_pred_raw变量,M对应设置的实例个数,N对应点数,里面的值都是一些小数,请问这里面的值指的是各点归属于各个实例的概率吗
您好,我在使用自己数据集测试时,想要只显示其中指定类别实例的时候不太明白BlockMerging中volume和volume_seg的含义,可以解释一下吗
Hello,i noticed that there is a (6,3) shape array named "instance_sizes" in train.py,what does it mean? please
 作者您好,非常感谢您提供的代码,我在自己的三个建筑物数据集上进行实验时,发现levelset的表现差异很大,loss_levelset这项损失在来同一个城市的两个数据集上无法下降,即使后来将batchsize设置为4,初始学习率设置为0.00125时都无法下降,因此在这两个数据集上的map相比全监督的方法低30%,即使是边界框的map也比全监督实例分割方法的边界框map低30%。而在来自另一个城市的数据集上精度可以和全监督的方法媲美。请问这可能是什么原因造成的呢?