mjp9527
mjp9527
第一个报模型格式的问题,你可以先了解一下PaddleLite和paddle模型之间的区别,OPT工具使用等:https://paddle-lite.readthedocs.io/zh/release-v2.10_a/user_guides/model_optimize_tool.html nb模型,pdmodel/pdiparams,model/params 这些都是模型格式
> 目前用的库是:[inference_lite_lib.android.armv8.clang.c++_shared.with_extra.with_cv.arm82_fp16.tar.gz](https://github.com/PaddlePaddle/Paddle-Lite/releases/download/v2.11/inference_lite_lib.android.armv8.clang.c++_shared.with_extra.with_cv.arm82_fp16.tar.gz) > > opt工具的版本是2.11 > > 在mt6769的芯片 paddleocr的android端部署 > > https://github.com/PaddlePaddle/PaddleOCR/tree/release/2.5/deploy/android_demo opt转换前的模型是这个 你这个fp32模型也检测不到任何结果,repo原始模型是一个固定输入的量化模型
运行时要把这注释掉,否则修改的模型和库会被覆盖掉
OPT工具也得重新编译才行,你不能用之前的,库也需要重新编译,参考:https://paddle-lite.readthedocs.io/zh/release-v2.11/user_guides/model_optimize_tool.html,这个模型是支持的
不行,这是develop分支合入的,v2.11不支持
基于develop分支重新编译OPT工具和Lite动态库
> > > > 冒昧问下ops是啥,什么地方可以看到文档介绍? 某个设备上支持的算子,可以参考:https://www.paddlepaddle.org.cn/lite/v2.10/quick_start/support_operation_list.html , BMM这个算子目前只有xpu支持
升级一下PaddleLite版本,最新的v2.11支持 
表示commit