adamzhg

Results 8 comments of adamzhg

换回预置的lib和头文件之后,也是cpu可以跑通,npu报错: ository_manager/utils/repository_manager_log.py:30][log] [../../../../../../latest/compiler/python/site-packages/tbe/common/repository_manager/route.py:62][repository_manager] Subprocess[task_distribute] raise error[] [ERROR] TBE(1436413,python3):2024-04-25-13:04:33.029.899 [../../../../../../latest/compiler/python/site-packages/tbe/common/repository_manager/utils/repository_manager_log.py:30][log] [../../../../../../latest/compiler/python/site-packages/tbe/common/repository_manager/route.py:62][repository_manager] Subprocess[task_distribute] raise error[] [ERROR] TBE(1436409,python3):2024-04-25-13:04:33.029.900 [../../../../../../latest/compiler/python/site-packages/tbe/common/repository_manager/utils/repository_manager_log.py:30][log] [../../../../../../latest/compiler/python/site-packages/tbe/common/repository_manager/route.py:62][repository_manager] Subprocess[task_distribute] raise error[] [ERROR] TBE(1436415,python3):2024-04-25-13:04:33.029.900 [../../../../../../latest/compiler/python/site-packages/tbe/common/repository_manager/utils/repository_manager_log.py:30][log] [../../../../../../latest/compiler/python/site-packages/tbe/common/repository_manager/route.py:62][repository_manager] Subprocess[task_distribute] raise error[] [ERROR] TBE(1436412,python3):2024-04-25-13:04:33.029.952 [../../../../../../latest/compiler/python/site-packages/tbe/common/repository_manager/utils/repository_manager_log.py:30][log]...

1、Mindocr的原生模型之前弄错了,使用db++ResNet-50(ch+en)的模型,做converte_lite转换时,即使不提供config.txt文件,使用如下转换命令: converter_lite \ --saveType=MINDIR \ --fmk=MINDIR \ --optimize=ascend_oriented \ --modelFile=./dbnetpp_resnet50_ch_en_general-884ba5b9-b3f52398.mindir \ --outputFile=./dbnetpp_resnet50_ch_lite \ 出来的结果就比较好。 又做了些尝试,比如增加config.txt文件,进而调整precision_mode等参数,发现基本没有效果,和默认的效果差不多。 2、针对ch_pp_det_OCRv3,做converte_lite转换时做了很多尝试,比如修改input_shape,换成动态shape分档,调整precision_mode精度等。列出其中几个config.txt文件如下: [ascend_context] input_format=NCHW input_shape=x:[1,3,960,960] precision_mode=enforce_fp32 op_select_impl_mode=high_precision output_type=FP32 [ascend_context] input_format=NCHW input_shape=x:[1,3,-1,-1] dynamic_dims=[736,1280],[768,1280],[896,1280],[960,960],[1024,1280] precision_mode=enforce_fp32 但结果都差不多,识别效果都很差。 我安装的mindspore和mindspore-Lite的版本都是2.2.10,在converte_lite过程中,无论使用什么样的设置,都会报很多warnning: [WARNING]...

另外,使用离线推断,即使是使用db++ResNet-50(ch+en)的det模型和CRNN ResNet34 ch的rec模型,识别效果依旧不是很理想: ![1](https://github.com/mindspore-lab/mindocr/assets/47657926/4c97d9ed-0ef6-407f-a4b9-b67705e13b02) ![7-6](https://github.com/mindspore-lab/mindocr/assets/47657926/7b4018c0-e2b7-4495-bc78-7bdb965d87f6) 一些长的、较小的内容会识别不出来;而第二个图的长文本在一些行的末尾也会出错。 另外,通过 ms.set_context(device_target="CPU")的方式也试了一下Mindspore下执行MindOCR: -det用的dbnetpp_resnet50_ch_en_general-884ba5b9.ckpt -rec用的crnn_resnet34_ch 但是结果也没比上面使用atlas 300I npu推断的效果更好,有些地方甚至还不如: ![1_res](https://github.com/mindspore-lab/mindocr/assets/47657926/ef9d5db6-05cf-4005-84e6-7a4bf9325031) ![7-6_res](https://github.com/mindspore-lab/mindocr/assets/47657926/dbc7be37-a587-4273-9777-8c6be87ff042) 想咨询一下,如何才能获得更好的精度效果,比如x86+nvidia上直接跑ppocrv4,不做任何调整都是默认选项即可的效果?

【您好,针对ch_pp_det_OCRv3,ch_pp_det_OCRv4等检测模型,在310上暂不支持动态shape。ppocr预处理会将图片,按长边缩放到960,维持长宽比不变。所以进行分档时,可以固定长边为960,只对短边进行分档,类似于】 您好,您说的这个处理实际上针对mindocr的原生模型也是同样的,/mindspore/mindocr/deploy/py_infer/src/data_process/preprocess/transforms/det_transforms.py中,DetResize类里: super().__init__( target_size=None, keep_ratio=keep_ratio, padding=padding, limit_type="none", limit_side_len=960, force_divisable=False, interpolation=interpolation, **kwargs, ) limit_type设定的是none,这样在推断的时候,会根据[ascend_context]中设定的shape来对图像进行resize。 原生模型db++ResNet-50(ch+en)也是会先按照(1152,2048)的固定shape来进行resize。但同样的处理,ppocr的明显要差很多,不知道是为什么。 而在x86+nvidia的服务器上,打印ch_pp_det_OCRv4的处理,同样的在输入模型前也是将图像进行了按照长边对齐到960的处理。也就是说输入给模型的内容,arm+npu和x86+nvidia上的没有区别。 但在两个平台上效果差异很大,不知道是为什么? 另外,ch_pp_rec_OCRv4在做convert的时候报错。 我的是CANN7.0.0,convert的格式如下: converter_lite \ --saveType=MINDIR \ --fmk=ONNX \ --optimize=ascend_oriented \ --modelFile=./rec_crnn.onnx \ --outputFile=./rec_crnn_dynamic_output \...

请问有没有经过验证的,在atlas 300I卡上能精准识别发票票据的模型组合?之前在x86+nvidia上就是用ppocrv4,默认的识别率已经能够满足要求了。项目赶工,跪求一个在atlas 300I卡上能精准识别发票票据的模型组合。

收到,多谢,我们试试

ch_PP-OCRv4_rec_infer无法生成Lite MindIR格式文件的问题通过将mindspore-lite: 2.2.13的版本降为2.2.10解决了。 但是遇到如下新问题: 一、相关环境信息 服务器:华为鲲鹏服务器; OS:ubuntu20.04; 加速卡:Atlas 300I Model 3010(含4块Ascend 301); Python:3.8 mindspore-lite: 2.2.10 CANN:7.0.0.beta1 固件与驱动:1.0.22.alpha(A300-3010-npu-firmware_7.1.0.3.220.run,A300-3010-npu-driver_23.0.0_linux-aarch64.run) 二、问题描述: 问题1: 1、按照官网说明将ch_PP-OCRv4_det_server_infer、ch_ppocr_mobile_v2.0_cls_infer、ch_PP-OCRv4_rec_server_infer分别生成Lite MindIR格式文件(用的OCRv4的Server版,精度希望能更高一些); 2、调用脚本如下: python deploy/py_infer/infer.py \ --input_images_dir=XXX \ --det_model_path=xxx/ch_PP-OCRv4_det_server_infer/det_db_dynamic_output.mindir \ --det_model_name_or_config=ch_pp_det_OCRv4...

@TingquanGao ,请问paddleocr-vl现在是否支持国产GPU了,比如海光的GPU?