Hao Ge

Results 23 comments of Hao Ge

> @gehaocool 您是否方便开放这个数据增广的代码?还有一点,我发现glint这批数据分布很不均匀,有些类类内有大几百张数据,有些类只有几张数据。我训的时候是对类内样本最大数量做了限制,不知道您针对这个不均衡问题有没有做处理~ 数据增广代码参考[caffe-augmentation](https://github.com/twtygqyy/caffe-augmentation) 还加了一段减少显存消耗的,代码来自[caffe-Mem-Op](https://github.com/yjxiong/caffe),主要代码在net.cpp里。 我没有对glint数据做样本均衡处理,可以考虑简单的过采样扩充一下数据量较少的identities,实在过少就直接扔掉该identity。关于训练数据的讨论可以参考一下insightface的repo中的issues。

@Rashomon5487 是的,为了让多卡从不同位置读取数据,可以加速收敛

预处理的整个流程同sphereface是一样的,使用MTCNN进行人脸检测和对齐 请参考sphereface的相关代码[face_detect_demo](https://github.com/wy1iu/sphereface/blob/master/preprocess/code/face_detect_demo.m)和[face_align_demo](https://github.com/wy1iu/sphereface/blob/master/preprocess/code/face_align_demo.m) 其他版本的MTCNN实现也是可以的,但一定要注意保持训练和测试的图片用相同的代码进行对齐 我的pretrained model所用的训练数据是用sphereface的上述代码进行对齐的,所以如果你要用我的pretrained model,而不使用原版的MTCNN的话,请一定注意保证你所用的MTCNN的结果同原版是一样的,这里还一点是对齐时的仿射变换计算方法也一定要是一样的 另外测试LFW的话也可以用sphereface的相关test代码 最近比较忙,以后有空了可能会加入这部分代码,并对repo进行重构 …… …… 不过说实话动力不是很大……请不要抱希望

是的,应该是可以的

我想了一下,Innerproduct可能在训练和测试的时候都要使用我这个修改的版本 CombinedMargin Layer测试的时候肯定是不需要的

@boozyguo 多谢你的测试信息!

@bongnamkang Sorry to reply so late. I've uploaded the package to Google Drive. https://drive.google.com/open?id=1iqK4sJNzGyfo7Jrf-OyAfOKsBIFvD2Wl

train所用prototxt的最后Loss部分和example.prototxt里面是类似的

我放出的那个36层模型是带BN的,从deploy.prototxt中就能看出来,除了这一点以及层数之外同example.prototxt没有任何区别。 不知道你是否测试过我放出的模型效果,同你自己训练的相比有什么差距?

@shiyuanyin 这两处的normalize原理应该是一样的,但是具体实现的计算过程不太一样。 在innerproduct layer里想要normalize的是参数矩阵W,这个没法用normalize layer来做,所以直接写在innerproduct layer的实现里面了