anjj
anjj
单独进行文字检测时,将tensorrt打开,可以正常加速运行。识别部分打开tensorrt就报错 错误信息: -------------------------------------- C++ Traceback (most recent call last): -------------------------------------- 0 paddle_infer::CreatePredictor(paddle::AnalysisConfig const&) 1 paddle_infer::Predictor::Predictor(paddle::AnalysisConfig const&) 2 std::unique_ptr paddle::CreatePaddlePredictor(paddle::AnalysisConfig const&) 3 paddle::AnalysisPredictor::Init(std::shared_ptr const&, std::shared_ptr const&) 4 paddle::AnalysisPredictor::PrepareProgram(std::shared_ptr const&) 5 paddle::AnalysisPredictor::OptimizeInferenceProgram()...
请提供下述完整信息以便快速定位问题/Please provide the following information to quickly locate the problem - 系统环境/System Environment:CUDA:10.2 CUDNN:8.1.1 Tensorrt:7.2.3.4 - 版本号/Version: PaddleOCR: release-2.4 - 下载的paddle_inference: GIT COMMIT ID: a5cf2e305b744e3ebd2f2210341f88d349d4ec5e WITH_MKL: ON WITH_MKLDNN: ON WITH_GPU:...
例如,身份证和表格(有些身份证中文上面是有相应的英文字母的) 只想要中文的部分,那么英文字母,在训练检测模型时,可以不标注图片中英文的部分,只标注图片中文的部分么,对检测模型效果会有影响吗?? 还是都需要标,在后处理时候,在判断英文的部分,给它筛除掉?
请问,我现在训练V3-cml的蒸馏模型,检测的训练集有8000多张,一张显卡,batch-size最大设置为3。 请问学习率应该设置多少呢??? 看官方的finetune文档,里面说单卡bs=4,学习率设置5e-5 (0.0005) 这样会不会太小了? 我设置的epoch=500, lr=0.0005 训练了17个epoch了,指标效果不太好,并且best_epoch还一直是第二个epoch。 请问怎么设置学习率合适呢?
训练文本检测时,使用ch_det_mv3_db_v2.0.yml 和 V3的ch_PP-OCRv3_det_dml.yml 都没问题,结果正常。 但是使用cml训练精度和召回就一直是0,请问什么原因啊??? 命令: python tools/train.py -c configs/det/ch_PP-OCRv3/my_sfz_Det_OCRv3_cml.yml 配置文件: Global: debug: false use_gpu: true epoch_num: 500 log_smooth_window: 20 print_batch_step: 40 save_model_dir: output/my_sfz_Det_OCRv3_cml22/ save_epoch_step: 100 eval_batch_step: 200 cal_metric_during_train: false...
训练V3版本的 det检测或者rec识别模型。 使用断点训练时,acc和lr 能继续训练,但是epoch是从1开始,无法从当前训练的epoch开始。 例如总共500个epoch,训练了50个了,使用短点训练的话,epoch是重新设置450 ,还是继续500从epoch1开始训练?
训练V3版本是文字识别模型。 场景是身份证。 当前下载了部分开源的中文识别的数据集有200多万张。自己生成的中文数据集有40万张左右,标注好的真实身份证的图片有10万张左右。 用V3官方提供的中文推理模型测试身份证,有些不清晰的识别效果不好。因此使用了真实图片进行标注。 想使用ch_PP-OCRv3_rec_train/best_accuracy.pdparams 预训练模型进行finetune。 请问::使用官方的这个中文识别训练模型微调 ,应该是用以下那两种方法好呢? 1. 加入我找的这200万张开源中文数据集 ,然后将 ratio_list:设置成真实+生成 和 开源数据 1:1 2. 不需要加入我找的开源数据,直接使用生成的数据和真实数据进行finetune
训练文字识别模型 v1、v2的版本大小是[32,320] 文档中说训练中先将图片等比例缩放到高=32时,如果宽大于十倍,也就是大于320则过滤掉该图 而V3的识别模型大小是[48,320]。 那是不是先等比例到高=48,然后宽大于320过滤掉????? 那就不是十倍的比例了。 如果自己的训练集中有较多长文本,时不时应该把训练和预测的大小都修改为[48,480]了?也保持宽高比为10倍的比例???? 请问是该这样调整么
训练v3版本的文字识别模型。 看文档说里面的策略是: 在中文识别模型训练时,并不是采用直接将训练样本缩放到[3,32,320]进行训练,而是先等比例缩放图像,保证图像高度为32,宽度不足320的部分补0,宽高比大于10的样本直接丢弃。预测时,如果是单张图像预测,则按上述操作直接对图像缩放,不做宽度320的限制 可是我训练的数据集中,标注了很多身份证真实场景的数据。身份号和有效期期限的图片,宽高比确实是大于10的。 如果舍弃就训练不到了,请问该怎么解决这个宽高比的问题,把大于10的也用来训练??
分支是2.5 PaddleOCR文字识别,c++Tendorrt推理时,一开始检测部分用tensorrt可以正常推理,但是识别不行就报错 然后将ocr_rec.cpp 中 // AnalysisConfig config; /*** paddle_infer::Config config; config.SetModel(model_dir + "/inference.pdmodel", model_dir + "/inference.pdiparams"); std::cout gpu_id_); if (this->use_tensorrt_) { auto precision = paddle_infer::Config::Precision::kFloat32; if (this->precision_ == "fp16") {...