zero406-CC
zero406-CC
你们应该看看这个S3DISDataLoader.py的 def __getitem__(self, idx): if point_idxs.size > 1024: break 这个不同数据这个1024值不一样,自己的数据可能量小,这个随机取值的数量一直达不到1024 就会死循环。具体含义没细纠,但是这里我数据量小改了120(我的数据量差不多是这个,你们可以打印point_idxs.size评估看看)就跳出了,我刚学,其它不必问我,祝君好运。
your problem seems to be multithread problem on windows, trainDataLoader = torch.utils.data.DataLoader(TRAIN_DATASET, batch_size=BATCH_SIZE, shuffle=True, num_workers=0, pin_memory=True, drop_last=True, worker_init_fn=lambda x: np.random.seed(x + int(time.time()))) num_workers=0 try this,,你和他们的问题不一样,看着是windows下面的多线程问题
可能是因为你的data_path没找到需要预测的ply文件,注意调试data_path = glob.glob这个代码涉及的路径以及查看路径下面是不是没有需要预测的ply文件
I used RandLA-Net ,u can try two。