Eileen2014
Eileen2014
Traceback (most recent call last): File "train_test.py", line 183, in net = torch.nn.DataParallel(net, device_ids=list(range(args.ngpu))) File "/home/cv2018/anaconda3/lib/python3.6/site-packages/torch/nn/parallel/data_parallel.py", line 102, in __init__ _check_balance(self.device_ids) File "/home/cv2018/anaconda3/lib/python3.6/site-packages/torch/nn/parallel/data_parallel.py", line 17, in _check_balance dev_props = [torch.cuda.get_device_properties(i)...
当我运行,FSSD时出现下面的错误 loading pretrained model from weights/mobilenet_1.pth Loading weights into state dict... Traceback (most recent call last): File "train_test_fssd_mobile_pre.py", line 132, in net.load_weights(args.basenet) File "/home/cv2018/PytorchSSD-master/models/FSSD_mobile.py", line 135, in load_weights state_dict =...
我有一个问题,就是partitionCount,是不是有多处不同含义的应用?哈希桶中每个桶分为partitionCount个,但是server端计算多项式返回的时候为什么也分区了?返回的数量是[partitionCount*密文数][多项式模数]?这个分区我不是很能理解 还有就是在布谷hash这一步实际上进行了两次的填充,如果在数据量很大的时候这两次填充很吃内存,是否能省略掉一次填充?
在实验数据中,生成的每行数据长度是固定的,因此在开始server端初始化的时候是知道elementBitLength长度的,如果每行实验数据的长度是未知的,elementBitLength在输入的时候不能确定初始化的时候要怎么办?初始化第三步进行多项式计算的时候涉及 int labelPartitionCount = CommonUtils.getUnitNum((labelByteLength + ivByteLength) * Byte.SIZE, (PirUtils.getBitLength(params.getPlainModulus()) - 1) * itemEncodedSlotSize); 还有就是服务端和客户端的数据 Key和Label的大小是不是都要小于128bit