MachineLP
MachineLP
> what the fold mean? https://github.com/MachineLP/PyTorch_image_classifier/blob/master/tools/data_preprocess.py
> Fri Dec 11 22:08:15 2020 Fold 2, Epoch 11, lr: 0.0000849, train loss: 0.03911, valid loss: 0.00720, acc: 47.3684, auc: 0.500000. > Fri Dec 11 22:08:15 2020 Fold 2,...
> @MachineLP 您好!有些问题想请教下您。 > > * 我使用了自己的数据集~3k张图片,但是acc和auc依然始终没有变化?请问是怎么回事呢? >  > * 为什么在您的数据集中,训练集和测试集是一致的?我大概看了您的代码,是否逻辑是这样(假定当前循环fold==0):此时fold!=0的图片会被当做训练集,其余的fold==0的被当做验证集和测试集?但是这样也使得验证集和测试集是一致的?是否不太好,按照6:2:2划分会更好些? 这个比例可以根据自己的需求改一下。
> > > @MachineLP 您好!有些问题想请教下您。 > > > > > > * 我使用了自己的数据集~3k张图片,但是acc和auc依然始终没有变化?请问是怎么回事呢? > > >  > > > * 为什么在您的数据集中,训练集和测试集是一致的?我大概看了您的代码,是否逻辑是这样(假定当前循环fold==0):此时fold!=0的图片会被当做训练集,其余的fold==0的被当做验证集和测试集?但是这样也使得验证集和测试集是一致的?是否不太好,按照6:2:2划分会更好些? > > > > > > 这个比例可以根据自己的需求改一下。 >...
不是的, 是为了看某个类别下的AUC。
> Hello, I now want to use resnest to train my own image data set. What I do is image classification, but how to convert my image file into data.csv,...
这个很难去枚举,你可以尝试一下,有些论文中也有介绍加了BN会导致效果变差。
还可以看一下这个解释:去除BN层已经被证明有助于增强性能和减少计算复杂度在不同的PSNR-oriented任务,包括SR和去模糊。BN层在训练期间使用批次的均值和方差对特征进行归一化,在测试期间使用整个训练数据集的估计均值和方差。当训练和测试数据集的统计数据差异很大时,BN层往往引入不适的伪影,限制了泛化能力。我们以经验观察到,BN层有可能当网络深和在GAN网络下训练时带来伪影。这些伪影偶尔出现在迭代和不同设置之间,违反了稳定性能超过训练的需求。因此,我们为了训练稳定和一致性去除了BN层。此外,去除BN层有助于提高泛化能力,减少计算复杂度和内存使用。
> 输入大小不同哈,C++的输入大