kyle
kyle
> > 这个看着像是label_list的文件给的不对,不是训练的问题 是对的哦,我如果训练久一点就不会报这个错,这个看起来是1000分类的问题,因为我的分类个数没有1000个,模型在预测的时候预测为922类,但是我的配置文件根本就没有这么多类,所以找不到922属于哪个类别,就报错。另外,我在训练的时候指定了分类个数,为什么生成的模型还是1000分类的,是我哪里配置错误了吗?
> 有可能,可以发一下配置文件看看 你好,这是我训练模型的配置 train_dict = { 'Global': { 'checkpoints': None, 'pretrained_model': 'pretrain_models/ResNet50_vd_pretrained', 'output_dir': 'trained_models', 'device': 'cpu', 'class_num': 12, 'save_interval': 5, 'eval_during_train': True, 'eval_interval': 1, 'epochs': 5, 'print_batch_step': 10, 'use_visualdl': False,...
> class_num的配置不对,要在Arch里面设置 > > https://github.com/PaddlePaddle/PaddleClas/blob/8765dadfbbfdec5fb9d3ee0dd43490848e6cb006/ppcls/configs/ImageNet/AlexNet/AlexNet.yaml#L20 Arch里面设置也试过,但是还是报这个错,是不是有'pretrained_model'参数的原因呢?看不懂源码,所以只能来这里提问了。
> > > class_num的配置不对,要在Arch里面设置 > > > https://github.com/PaddlePaddle/PaddleClas/blob/8765dadfbbfdec5fb9d3ee0dd43490848e6cb006/ppcls/configs/ImageNet/AlexNet/AlexNet.yaml#L20 > > > > > > Arch里面设置也试过,但是还是报这个错,是不是有'pretrained_model'参数的原因呢?看不懂源码,所以只能来这里提问了。 > > 你的训练跟预测都在Arch里这样设置过吗?这个跟pretrained_model没有关系。 你可以试试直接用训练时间短的模型,预测时在Arch里加上这个参数,看看还有没有报错 还是不行,我在train,export_model和infer的配置文件都在arch下配置了class_num参数,照样报这个错。并且如果训练的类别数小于5,配置文件中的 Metric: Train: - TopkAcc: topk: [1, 5] 这里还会报错 input of...
> > 还是不行,我在train,export_model和infer的配置文件都在arch下配置了class_num参数,照样报这个错。并且如果训练的类别数小于5,配置文件中的 Metric: Train: - TopkAcc: topk: [1, 5] 这里还会报错 input of topk op must have >= 5 columns in axis of 1。 照理说类别的多少不同,训练出来的模型大小应该也不同吧,但是不管多少个类别的数据,训练出来的模型大小都是一致的,所以,怀疑参数没生效,训练出来的模型还是1000分类的模型。 > > 麻烦传一个yaml文件,我定位一下问题。 btw,你现在用的是哪个分支的代码呢?是拉取的最新代码没错吧? #...
[ResNet50_vd.zip](https://github.com/PaddlePaddle/PaddleClas/files/8629694/ResNet50_vd.zip)
另外,在训练过程中的eval阶段,如果验证数据集小于配置文件中设置的batch_size参数,那么会直接报错,错误如下:  我的配置文件如下:  我的验证集总共有20张图像
拉取了最新的代码,问题解决了,谢谢。再请问一个问题,paddleclas支持earlystopping吗?
> 模型训练完毕后,UIE抽取耗时目前稳定在20ms左右。 显卡为16GB,已设置fp16。 是否还有其他方法可使耗时能继续缩短? 请问下你是调用的什么模型结果是20ms啊?
> 1)PaddleNLP 2.3.4,PaddlePaddle2.3.1 2)系统环境:MacOS,python3.8 > > 基于Flask + gunicorn + UIE框架(uie-nano抽取自定义8种实体类型) 本地gunicorn直接起服务,一句的响应时间约500ms; 配置一致,build docker后进行调用,同一句的响应时间约1s。 > > 请问有遇到过这种问题吗? 我也有这样的问题,使用docker部署之后的推理速度变慢。