PaddleOCR
PaddleOCR copied to clipboard
请问推理时,服务器的环境是GPU-3080TI,一张图片用了2.83秒,论文上说是毫秒级,这是什么原因呢?在线等
请提供下述完整信息以便快速定位问题/Please provide the following information to quickly locate the problem
- 系统环境/System Environment:
- 版本号/Version:Paddle: PaddleOCR: 问题相关组件/Related components:
- 运行指令/Command Code:
- 完整报错/Complete Error Message:
求教,我也遇到了同样的问题。我看其它回答说第一张图片是在预热,多跑几张后面的就快了,但我后面的图片也要用到大概200ms左右,太慢了。有没有老铁解救一下。用的是relese2.5下c++跑的,参数都是默认参数,图片分辨率也不高,主要想用来识别数字的。模型是官网的轻量模型。是因为我没开tensorrt的原因吗?
你的文件夹里放了多少张预测图
------------------ 原始邮件 ------------------ 发件人: @.>; 发送时间: 2022年8月2日(星期二) 上午10:44 收件人: @.>; 抄送: @.>; @.>; 主题: Re: [PaddlePaddle/PaddleOCR] 请问推理时,服务器的环境是GPU-3080TI,一张图片用了2.83秒,论文上说是毫秒级,这是什么原因呢?在线等 (Issue #7047)
求教,我也遇到了同样的问题。我看其它回答说第一张图片是在预热,多跑几张后面的就快了,但我后面的图片也要用到大概200ms左右,太慢了。有没有老铁解救一下。用的是relese2.5下c++跑的,参数都是默认参数,模型是官网的轻量模型。是因为我没开tensorrt的原因吗
— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.***>
不管放多少张,只有第一张是最慢的,后面都是200ms左右
我上次放了三张,用的python tools/infer/predict_system.py --image_dir="./test2" --det_model_dir="./inference/ch_PP-OCRv3_det_infer/" --cls_model_dir="./inference/ch_ppocr_mobile_v2.0_cls_slim_infer/" --rec_model_dir="./inference/ch_PP-OCRv3_rec_infer/" --use_angle_cls=True --use_gpu=True--rec_image_shape="3,32,320"这个命令,平均时间2.83秒,是因为它预热十次的原因吗
------------------ 原始邮件 ------------------ 发件人: @.>; 发送时间: 2022年8月2日(星期二) 上午10:51 收件人: @.>; 抄送: @.>; @.>; 主题: Re: [PaddlePaddle/PaddleOCR] 请问推理时,服务器的环境是GPU-3080TI,一张图片用了2.83秒,论文上说是毫秒级,这是什么原因呢?在线等 (Issue #7047)
不管放多少张,只有第一张是最慢的,后面都是200ms左右
— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.***>
------------------ 原始邮件 ------------------ 发件人: "PaddlePaddle/PaddleOCR" @.>; 发送时间: 2022年8月2日(星期二) 上午10:51 @.>; @.@.>; 主题: Re: [PaddlePaddle/PaddleOCR] 请问推理时,服务器的环境是GPU-3080TI,一张图片用了2.83秒,论文上说是毫秒级,这是什么原因呢?在线等 (Issue #7047)
不管放多少张,只有第一张是最慢的,后面都是200ms左右
— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.***>
这个我是真不知道,但我建议你分别看下每张图片跑了多久,平均时间可能是被第一张图片的时间拖了后腿
三张图,每张都是2.8几秒,你是用这个python的system_predict串联推理的吗
------------------ 原始邮件 ------------------ 发件人: @.>; 发送时间: 2022年8月2日(星期二) 上午10:57 收件人: @.>; 抄送: @.>; @.>; 主题: Re: [PaddlePaddle/PaddleOCR] 请问推理时,服务器的环境是GPU-3080TI,一张图片用了2.83秒,论文上说是毫秒级,这是什么原因呢?在线等 (Issue #7047)
这个我是真不知道,但我建议你分别看下每张图片跑了多久,平均时间可能是被第一张图片的时间拖了后腿
— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.***>
论文中放的CPU开启mkldnn的平均时间,具体指标可以参考文档https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.5/doc/doc_ch/PP-OCRv3_introduction.md#4-%E7%AB%AF%E5%88%B0%E7%AB%AF%E8%AF%84%E4%BC%B0
三张图,每张都是2.8几秒,你是用这个python的system_predict串联推理的吗 … ------------------ 原始邮件 ------------------ 发件人: @.>; 发送时间: 2022年8月2日(星期二) 上午10:57 收件人: @.>; 抄送: @.>; @.>; 主题: Re: [PaddlePaddle/PaddleOCR] 请问推理时,服务器的环境是GPU-3080TI,一张图片用了2.83秒,论文上说是毫秒级,这是什么原因呢?在线等 (Issue #7047) 这个我是真不知道,但我建议你分别看下每张图片跑了多久,平均时间可能是被第一张图片的时间拖了后腿 — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.***>
不是,我是用c++做的,不是python。
请问用这个命令推理python tools/infer/predict_system.py --image_dir="./test2" --det_model_dir="./inference/ch_PP-OCRv3_det_infer/" --cls_model_dir="./inference/ch_ppocr_mo有MKLDNN这个参数吗
------------------ 原始邮件 ------------------ 发件人: "PaddlePaddle/PaddleOCR" @.>; 发送时间: 2022年8月2日(星期二) 中午11:02 @.>; @.@.>; 主题: Re: [PaddlePaddle/PaddleOCR] 请问推理时,服务器的环境是GPU-3080TI,一张图片用了2.83秒,论文上说是毫秒级,这是什么原因呢?在线等 (Issue #7047)
论文中放的CPU开启mkldnn的平均时间,具体指标可以参考文档https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.5/doc/doc_ch/PP-OCRv3_introduction.md#4-%E7%AB%AF%E5%88%B0%E7%AB%AF%E8%AF%84%E4%BC%B0
— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.***>
请问用这个命令推理python tools/infer/predict_system.py --image_dir="./test2" --det_model_dir="./inference/ch_PP-OCRv3_det_infer/" --cls_model_dir="./inference/ch_ppocr_mo有MKLDNN这个参数吗 … ------------------ 原始邮件 ------------------ 发件人: "PaddlePaddle/PaddleOCR" @.>; 发送时间: 2022年8月2日(星期二) 中午11:02 @.>; @.@.>; 主题: Re: [PaddlePaddle/PaddleOCR] 请问推理时,服务器的环境是GPU-3080TI,一张图片用了2.83秒,论文上说是毫秒级,这是什么原因呢?在线等 (Issue #7047) 论文中放的CPU开启mkldnn的平均时间,具体指标可以参考文档https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.5/doc/doc_ch/PP-OCRv3_introduction.md#4-%E7%AB%AF%E5%88%B0%E7%AB%AF%E8%AF%84%E4%BC%B0 — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.***>
有的,可以根据需要自行设置 https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.5/tools/infer/utility.py#L119