qiuzhewei
qiuzhewei
Hi, Following error occcurs when I try to run the script. selenium.common.exceptions.WebDriverException: Message: unknown error: cannot find Chrome binary Any help will be appreciate!
## error log | 日志或报错信息 | ログ 你好, 我是使用paddle训练得到的模型,然后转成onnx模型,onnx模型和paddle模型的一致性是对的上的。 然后我用命令pnnx test_model/picodet.onnx inputshape=[1,3,320,320]f32[1,2]f32 fp16=0 能够正常生成所有文件,但是我运行picodet_ncnn.py时报错 `layer pnnx.Expression not exists or registered` 运行picodet_ncnn.py时报错 `Traceback (most recent call last): File "test_model/picodet_pnnx.py", line 648,...
Hi, It seems that detection model, i.e. retinaface, only supports single image inference. Since the model provided is in ONNX format. How can I re-convert pth model to ONNX model...
**Description** When I use tritonserver to predict a sequential image list, some wired thing about inference time happend. In most cases, the inference time is about 1ms but some inferece...
### 问题确认 Search before asking - [x] 我已经搜索过问题,但是没有找到解答。I have searched the question and found no related answer. ### 请提出你的问题 Please ask your question 你好, 我正常训练picodet,一切都是正常的。 然后我想着量化训练一下,用的命令如下 `tools/train.py -c configs/picodet/picodet_s_320_coco_lcnet.yml --slim_config...
### 问题确认 Search before asking - [X] 我已经搜索过问题,但是没有找到解答。I have searched the question and found no related answer. ### 请提出你的问题 Please ask your question 你好, 我训练picode_xs得到的模型转成onnx后,自己粗略测试,循环1000次取平均,不包括预处理,单单模型的推理时间,在cpu上需要30ms一次。根据链接([( w/o 后处理)](https://paddledet.bj.bcebos.com/deploy/third_engine/picodet_xs_320_coco_lcnet.onnx))下载你们提供的onnx模型,速度也是30ms左右一次。 另外转成trt模型用tritonserver推理(A10卡)在10 batchsize的情况下也需要大概6ms,但是在文档中写着只需要3ms左右,为什么差距会这么大呢 另外训练得到的模型是怎么转ncnn模型的呢?我尝试了教程讲的,结果转模型出错了,但是onnx模型和训练得到的模型结果是能对得上的