happy

Results 7 issues of happy

作者您好: 请问您训练的caffe 下的模型是否是,先只用softmax,训练到12万步,再此基础上,在模型中加入arcface损失层,进行finetune训练,, ? 最后训练的模型怎么进行LFW精度的测试昵?

请问作者,caffe训练的话,同样是这个步骤吗,先只用softmax 损失进行lr=0.1的训练到12万步骤,然后添加arcface损失,在之前训练的模型上继续训练吗。。。

@xialuxi ,谢谢您的回复,我上午看了adaface的论文的实现 用caffe 训练很慢的原因请问作者后来有发现吗,前向传播我觉得挺快的 我设置的参数是batch size=56 l两块1080 iter_size:6 /57597324-8428ad00-7581-11e9-9fa1-e2d72d0446f7.png) 12:49:24.228211 23509 solver.cpp:243] Iteration 0, loss = 24.1503 I0513 12:49:24.228235 23509 solver.cpp:259] Train net output #0: accuracy-t = 0.839286 I0513 12:49:24.228257...

以前的 层,是两个层,一个添加m角度,一个添加尺度64或者128 然后新的arcface合并只有一层, 没有scale 参数设置的值,但是这里和上面的实现的区别在哪里昵 layer { name: "cosin_add_m" type: "CosinAddm" bottom: "temp_fc6" bottom: "label" top: "fc6_margin" cosin_add_m_param { m: 0.5 } } layer { name: "fc6_margin_scale" type: "Scale" bottom:...

您好,作者,请问您的lmdb 数据,是用剪切对齐后的图片和label 制作的吗,label 是什么内容???,是每个人一个文件夹,有多张图片,最后分成多少类,就是多少个人的图片文件夹吗,数据如何制作??

作者您好, 请问您的损失函数的添加,我目前只加入 cosin_add_m_layer相关proto,参数,训练的时候出现,这种情况,输出 costheta >1 ************ 1.58 ,这种输出很多,请问可能什么原因昵? 然后,caffe版本的训练和mxnet类似吗,就是也是先只训练softmax,到12万步,然后加入arcface 损失曾,再进行finetune 吗?

作者你好,我想改动一个新的结构,是在SE的地方改动的,有点困惑,mxnet 的symbol,不能直接得到bchw的值, pytorch 的SGE,一个实现架构语句, 对应你提供的模型SE代码位置修改的话,symbol每一层bn3 后边的bchw,我直接得不到,我要mxnet,实现这句话,b, c, h, w = x.size(), x = x.reshape(b * self.groups, -1, h, w) 我对mxnet 不是那么熟悉,不知道作者你有没有好的方式实现这句reshape 我在修改的地方 bn3 = mx.sym.BatchNorm(data=conv2, fix_gamma=False, eps=2e-5, momentum=bn_mom, name=name +...