Paddle-Lite
Paddle-Lite copied to clipboard
Paddle-lite-Demo比官方APK的预测速度要慢一半
我在我的小米12手机上对比了picodet_detection_demo和官方的APK【[https://paddledet.bj.bcebos.com/deploy/third_engine/PP-PicoDet.apk】的PicoDet模型。 官方APK可以达到70到110的FPS,可以picodet_detection_demo只能达到了30FPS。 但是在demo的log里可以看到,模型的处理速度是可以达到50以上的Fps的: 2022-07-05 18:08:17.701 17326-17356/com.baidu.paddle.lite.demo.ssd_detection D/JNI: Read from bitmap costs 2.126000 ms 2022-07-05 18:08:17.705 17326-17356/com.baidu.paddle.lite.demo.ssd_detection D/JNI: Detector postprocess costs 3.645000 ms 2022-07-05 18:08:17.722 17326-17356/com.baidu.paddle.lite.demo.ssd_detection D/JNI: Detector predict costs 17.313000 ms 2022-07-05 18:08:17.722 17326-17356/com.baidu.paddle.lite.demo.ssd_detection D/JNI: Detector postprocess costs 0.019000 ms 2022-07-05 18:08:17.722 17326-17356/com.baidu.paddle.lite.demo.ssd_detection D/JNI: Write to bitmap costs 0.410000 ms 请问是因为picodet_detection_demo中有30FPS的限制吗?如果我想提高推理速度应该做什么修改,谢谢!
您好,我们已经收到了您的问题,会安排技术人员尽快解答您的问题,请耐心等待。请您再次检查是否提供了清晰的问题描述、复现代码、环境&版本、报错信息等。同时,您也可以通过查看官网文档、常见问题、历史Issue来寻求解答。祝您生活愉快~
Hi! We've received your issue and please be patient to get responded. We will arrange technicians to answer your questions as soon as possible. Please make sure that you have posted enough message to demo your request. You may also check out the API,FAQ and Github Issue to get the answer.Have a nice day!
您好,apk中的使用方法是fp16+多线程部署方式 您若想提速的话可以增加整两个选项,包括编译带fp16的库和跑fp16的模型。
您好,apk中的使用方法是fp16+多线程部署方式 您若想提速的话可以增加整两个选项,包括编译带fp16的库和跑fp16的模型。
感谢您的回答!我已经使用了多线程设置。然后目前的模型推理速度大约在20ms左右。
请问20ms的推理速度,对应20多的FPS是正常的性能表现吗?
我想要获得更高的30以上的FPS,是需要将模型推理速度压缩到10ms以内吗?
还是说并非模型的问题,而是其他Android工程设置的问题。。
期待您的解答。。。我不懂安卓和java,玩这个好吃力QAQ
看来雀食是模型之外的问题,我把模型推理部分给注释掉之后FPS变成了30.
似乎这里的OpenGL的RenderMode导致的锁帧,改成RENDERMODE_CONTINUOUSLY之后就不锁30了。。。
似乎这里的OpenGL的RenderMode导致的锁帧,改成RENDERMODE_CONTINUOUSLY之后就不锁30了。。。
赞,可以给我们提个pr~!