Paddle-Lite
Paddle-Lite copied to clipboard
paddleocr dbnet模型用转换为fp16后检测不到任何数据
目前用的库是:inference_lite_lib.android.armv8.clang.c++_shared.with_extra.with_cv.arm82_fp16.tar.gz
opt工具的版本是2.11
在mt6769的芯片 paddleocr的android端部署
https://github.com/PaddlePaddle/PaddleOCR/tree/release/2.5/deploy/android_demo opt转换前的模型是这个
之前没用fp16 直接opt_linux 没加--enable_fp16=true 是可以正常工作
det_db_inference.zip 这个是转换前的静态模型
目前用的库是:inference_lite_lib.android.armv8.clang.c++_shared.with_extra.with_cv.arm82_fp16.tar.gz
opt工具的版本是2.11
在mt6769的芯片 paddleocr的android端部署
https://github.com/PaddlePaddle/PaddleOCR/tree/release/2.5/deploy/android_demo opt转换前的模型是这个
你这个fp32模型也检测不到任何结果,repo原始模型是一个固定输入的量化模型
运行时要把这注释掉,否则修改的模型和库会被覆盖掉
那边有注释掉,我确定运行的库就是最新的,固定输入的量化模型 怎么理解?