Re-ID icon indicating copy to clipboard operation
Re-ID copied to clipboard

Results 10 Re-ID issues
Sort by recently updated
recently updated
newest added

`0.03 train Loss: 1.1448 Acc: 0.9010 Epoch 29/219 ---------- 0.03 train Loss: 1.1467 Acc: 0.9064 Epoch 30/219 ---------- 0.03 train Loss: 1.1458 Acc: 0.9059 Epoch 31/219 ---------- 0.03 train Loss:...

How to decide learning rate decrease in the 60 and 130 epoch? Thx.

你好,我在使用这个结构训练时loss非常容易变为nan,尤其是当特征图分割的数量超过3时,loss必定变为nan。 后来发现是程序里直接把不同高度的特征concat成一维向量导致的,直接使用卷积变成1维就不会出现nan,但效果感觉并不是很好。请问你有出现过这个情况吗。

File "train.py", line 230, in train_model loss5 = triplet(p, labels)[0] File "/home/zzy/anaconda3/envs/baseline/lib/python3.6/site-packages/torch/nn/modules/module.py", line 547, in __call__ result = self.forward(*input, **kwargs) File "/home/zzy/Downloads/Person_reID_baseline_pytorch/triplet_loss.py", line 143, in forward dist = torch.pow(inputs, 2).sum(dim=1,...

感谢你分享的代码,有个问题想和你讨论下。 我看到你推理的代码是 outputs_1,outputs_2,outputs_3,_,_,_,_,_,_= model(input_img) outputs = torch.cat((outputs_1,outputs_2,outputs_3),1) 这里 outputs_1,outputs_2,outputs_3 在训练的时候经过分类器分别进行了单独的监督。但是为什么你认为在推理的时候3个特征concat起来效果就好呢?类似的尝试我也试过,好像concat起来并没有什么显著效果。请问你这里的出发点或者依据是什么?

Hi, I use your framework in my paper. How do I cite your work?

Hi, i have tried your code and found that was really good, and i am wondering whether you have published any relevant papar? I want to further understand your ideas...

test.py 里面的特征提取部分都有问题的。 而且没有提供map和rank1的计算

感谢回答,不是很明白为什么model里return那么多。另外还有一个问题,怎么样计算map和rank1 rank5指标