caomao1111
caomao1111
统计的BiseNetV2
import paddle from paddleseg.models.bisenet import BiSeNetV2 net=BiSeNetV2 input_sizer=[1,3,512,512] paddle.flops(net, input_size=input_sizer, print_detail=True) 用这个统计paddleclas分类模式是没有出错的
默认GhostNet_x0_5与GhostNet_x1_0的训练设置是一样的,这个需要改吗
训练的GhostNet_x0_5,在训练集上的acc为57%,再验证集上推理得到的acc为60.%。使用ImageNet数据集,在train的时候没有进行验证,因为要在验证集上推理
是按照文档进行训练的,但我需要在ImageNet的验证集上评价模型(测试集是没有label的),也就是把验证集当做测试集,所以在训练时无法进行验证调整模型,原论文也是这么做的,你们是把训练集分割成训练和测试两个来进行train吗?
是的,数据集和训练方式是没问题的,那是训练的epoch次数不够吗,我看log中间会有一段时间Loss下降的非常慢,不知道为什么
我发现唯一不一样的是我训练时漏掉了这句o Arch.pretrained=False,请问默认是使用预训练模型吗,log我通过邮件发给您
> 想确认下你的配置,比如卡数,以及当前的batch-size和学习率分别是多少呢? 单卡,学习率0.8,batch_size为512,都按文档没变
GhostNet_x0_5的训练log 原始邮件 发件人:"Wei Shengyu"< ***@***.*** >; 发件时间:2021/12/10 15:35 收件人:"PaddlePaddle/PaddleClas"< ***@***.*** >; 抄送人:"草帽"< ***@***.*** >;"Author"< ***@***.*** >; 主题:Re: [PaddlePaddle/PaddleClas] 为什么我使用ImageNet1k的train进行训练,在val上只能得到60.1%的ACC,按照论文和所给的预训练模型应该可以到66.8%的 (Issue #1535) 是的,数据集和训练方式是没问题的,那是训练的epoch次数不够吗,我看log中间会有一段时间Loss下降的非常慢,不知道为什么 如果你没有修改训练参数,并且按照正常的方式设定训练集和验证集,可以分享一下你的log,我们看一下 &mdash; You are receiving this because you...
> > 我发现唯一不一样的是我训练时漏掉了这句o Arch.pretrained=False,请问默认是使用预训练模型吗,log我通过邮件发给您 > > > > 想确认下你的配置,比如卡数,以及当前的batch-size和学习率分别是多少呢? > > > > > > 单卡,学习率0.8,batch_size为512,都按文档没变 > > 应该是卡数的问题,默认训练是4卡的。可能是我们的文档在这块强调的还不够清楚,后续版本会添加一个warning提醒用户。 我只有一块卡的话是无法训练出和文档一样的效果吗?可以的话应该怎样改训练时的参数