iamZe

Results 20 comments of iamZe

你好 我是使用的你的caffe.proto文件直接进行了替换,然后编译的

@wujiyang 请问您方便总结一下在最新版caffe上做哪些变动就可以进行编译了呢,我尝试了好多版本的triplet loss都出错了。

@wujiyang 编译成功了,谢谢~我用过softmax预训练了,为什么起始loss只有0.02呢,这么小很难finetune吧

@wujiyang 这个是我的loss下降记录,学习率设置的0.0001,一直在振荡根本不下降。 neg_num: 4 pair_size: 2 hard_ratio: 0 rand_ratio: 1 margin: 0.1 I0703 02:44:16.248906 1599 solver.cpp:218] Iteration 0 (1.35991e-22 iter/s, 1.38166s/100 iters), loss = 0.0270692 I0703 02:44:16.249070 1599 sgd_solver.cpp:105] Iteration...

@wujiyang 尝试过改成0.1,0.01,还是这样不收敛,做了20000轮loop都是这样

I0703 10:54:21.593871 24860 solver.cpp:272] Solving train.prototxt I0703 10:54:21.593878 24860 solver.cpp:273] Learning Rate Policy: step I0703 10:54:22.989241 24860 solver.cpp:218] Iteration 0 (0 iter/s, 1.3953s/100 iters), loss = 0.0359277 I0703 10:54:22.989323 24860...

@wujiyang 最后一个问题。。。请问你在resnet上训练,使用了哪里的预训练model吗,还是自己完全从softmax loss 训练再使用triplet 微调呢?

@wujiyang 我用了40万张casia训练作者的resnet model,2万多iter后accu达到了95.5%,softmax loss还在0.3到1之间振荡,不知道作者的accuracy实现的怎么样?通过triplet loss之后有没有显著提升?