DeepID1
DeepID1 copied to clipboard
关于代码使用数据集和DeepID论文中数据增广的问题
答主您好,您的代码使用的数据是一个人有几十甚至上百张图像,而原文是讲一个人的图片处理成120张,60对图片送入网络训练,最后得到的特征向量也是120*160大小的,需要有一个降维的操作,并且没有使用余弦相似度的计算方式。 我的问题是: 1 原文的处理图片的方式是否在面对每个人有大量图片的数据集时是不必要的 2 使用余弦相似度和原文的联合贝叶斯得到的结果相差会太大吗 3 最后阈值选择的合理性在哪,我通过验证集迭代一个阈值列表来得到真正例率/假正例率最高的阈值,效果为什么比较差 麻烦答主解答我的一点疑惑,感谢!