syaringan357

Results 20 comments of syaringan357

I tried too, and failed too. It seems that deep learning model must be rebuilt.

人脸矫正的话,使用两只眼睛和鼻子的坐标计算出头部倾斜角度,然后旋转图片,重新进行mtcnn人脸检测就可以了。mtcnn很慢,但是在手机上用大小和速度还算可以,如果在服务器上做人脸检测,建议用别的模型。

MobileFaceNet这个模型,我转成tflite以后在lfw数据集上测试,分数阙值设置为0.8,最终准确率为95.18%,是一个人的平均分数是0.8729,不是一个人的最高分数是0.762。 照片要先经过mtcnn把人脸剪裁出来,剪裁时增加一定margin,你也可以试试,直接把宽度扩充到和长度一样的尺寸,这样resize时就不会被压扁了。

960x1280,和MIN_SIZE=120,只是为了MTCNN运行快点,具体尺寸你随便设置,影响不大,详细原因建议去了解MTCNN原理。 如果两张图片不是来自于同一个输入源,尺寸都不一样,建议不要压扁或者拉伸,先把Bitmap转成长宽比例一样的,并且保证人脸图像没有变形,再送入MobileFaceNet。

mtcnn的作用是从图片中把人脸的四个角点的坐标计算出来,然后你用这四个坐标去就能把图片中的人脸剪裁出来,剪裁之前你可以再处理一下这4个坐标,比如增加margin,你只要保证剪裁出来的人脸图片长宽相等就可以了。

``` def evaluate(embeddings): # Calculate evaluation metrics thresholds = np.arange(0, 4, 0.01) thresholds = thresholds + 0.01 embeddings1 = embeddings[0] embeddings2 = embeddings[1] assert (embeddings1.shape[0] == embeddings2.shape[0]) diff = np.subtract(embeddings1,...

http://cvlab.cse.msu.edu/project-face-anti.html

Must be set when converting to tflite.

我提交上来这个模型是我很久之前用CPU训练的。我现在从新用GPU训练,但是还是有一些问题,不太理想,我正试着去解决它,解决之后我会上传一个新的模型。