zhangxiaopang88
zhangxiaopang88
后来我查了一下发现faster-rcnn的batch_size写死了只能为1,谢谢你
Hello, using your pre-training model training-margin-s 128, -margin-s64, my training accuracy has been around 99.3x , you can give some advice, and your arcface training model of not the highest...
Did you change to the VGG datasets when you fine-tuned the model ?
您好,请问训练的时候打印的acc是什么精度啊 @moli232777144
您好,请问您的normalize层用的不是am-softmax @shiyuanyin caffe带的normalize层吗,我的情况跟您一样,,,我对比了其他caffe里的normalize层确实不一样,不知道我应该用哪一个normalize层,您能给个参考吗。
好的,谢谢你,你用哪一个网络觉得效果比较好
你试试4个batch之后更新梯度,类似于caffe的iter_size操作,学习率不要改变,看看精度
好像增大batchsize会提高速度,我准备试试,但是还是有一些问题 @enazoe
我把关于长宽不相等的断言给注掉了, // assert(inputDims.d[0] == inputDims.d[1]); assert(kernelSize.d[0] == kernelSize.d[1]); assert(stride.d[0] == stride.d[1]); assert(padding.d[0] == padding.d[1]); 其他的条件都满足,您看还需要修改哪些地方,能给个建议吗 @enazoe
我看到输入尺寸不一致的例子,应该是支持的输入尺寸不一致的情况,我再查查资料 @enazoe