riskeverything
riskeverything
似乎在forward里多次使用view,就会报NoneType的问题,请问下,这是什么原因啊。
> 我也遇到了同样的问题,用作者预训练的模型直接在测试集上测试得到ACER达到了0.505,请问您解决了这个问题吗 > >  你这肯定是数据不对,用了rgb。
不是,这东西网上不是随便下嘛?
> I used FeatherNetB_bs32-ir model to test the infrared image, and found that the effect is not good, maybe the data processing does not meet the requirements. @SoftwareGift 我用ir训练和测试,最好的结果有86的acc,并且训练非常容易过拟合。
你们这0.5的,应该都是数据源就不对。论文都没看嘛?作者用的是深度图训练和测试的,你用rgb进去肯定没效果啊。
> 这个是因为原始下载的代码当中,对于test的标签文件,有一句代码被注掉了,采用了随机的标签值。在read_data.py文件下。 > if self.phase_test:#测试阶段 > depth_dir = self.depth_dir_test > label_dir = self.label_dir_test > label = int(label_dir[idx]) > #label = np.random.randint(0,2,1) > label = np.array(label) > > 上面这个我已经改回来了。原始代码用的是label = np.random.randint(0,2,1),这个标签是随机的。所以检测效率是0.5左右。...
> 我用的数据集下的深度图啊,97%左右。 哦哦,深度图的话,没啥用的。我随便调了下参,都到了99·7%了。。
ir图像和depth图像的归一化参数应该是不一样的,这个是否更改后会提高效果。
> 你是怎么训练和测试的?我在用rgb图训练(color_train_list.txt),然后在color_test_list.txt上测试,效果一般,我试过作者的pytorch源码,也拿作者训练好的模型在color_test_list.txt上测试过,一开始平均平均的accuracy还不错,慢慢的测试到后面的正样本,效果就很差,整体的TPR@fpr也很差。完全不是paper中的效果(有可能paper中,不是这么测试的?)。后面我自己用caffe复现了他的featherNet,发现如果直接是最后的特征flatten乘1024向量,不接fc,然后做二分类,效果很差,如果接fc变成2维,效果会好很多,如果再fc前加上relu+dropout,accuracy效果会达到92%,[email protected]=91%. > > 不知道作者怎么训练的,有没有作者或者大佬解释一下?欢迎交流 你好,我想问下,你接fc时候是多少层,我看了作者的代码,确实是只用前两个神经元输出做loss,但是我觉得不是很合理,这样子相当于后面的神经元完全没有用到。
> 你是怎么训练和测试的?我在用rgb图训练(color_train_list.txt),然后在color_test_list.txt上测试,效果一般,我试过作者的pytorch源码,也拿作者训练好的模型在color_test_list.txt上测试过,一开始平均平均的accuracy还不错,慢慢的测试到后面的正样本,效果就很差,整体的TPR@fpr也很差。完全不是paper中的效果(有可能paper中,不是这么测试的?)。后面我自己用caffe复现了他的featherNet,发现如果直接是最后的特征flatten乘1024向量,不接fc,然后做二分类,效果很差,如果接fc变成2维,效果会好很多,如果再fc前加上relu+dropout,accuracy效果会达到92%,[email protected]=91%. > > 不知道作者怎么训练的,有没有作者或者大佬解释一下?欢迎交流 而且,我接了fc和dropout,非常容易过拟合。训练精度到了98,验证集只有30-40,不知道问题出在哪里。