Paddle-Lite
Paddle-Lite copied to clipboard
自己训练的车牌检测模型,转换成NB模型之后效果变差
自己训练的车牌检测模型,导出infer模型之后在aistuio上面预测正常,但是转换为nb模型之后效果变得很差
- 版本、环境信息: 1)Paddle Lite 版本:2.10 2)Host 环境:infer模型的预测在aistudio上进行,nb模型在android_demo上面进行
模型转换代码如下
from paddlelite.lite import *
#det_quant det
opt=Opt()
opt.set_model_dir("/home/aistudio/PaddleOCR/output/LicensePlateV1/det/infer")
opt.set_model_file("/home/aistudio/PaddleOCR/output/LicensePlateV1/det/infer/inference.pdmodel")
opt.set_param_file("/home/aistudio/PaddleOCR/output/LicensePlateV1/det/infer/inference.pdiparams")
opt.set_valid_places("arm")
opt.set_model_type("naive_buffer")
opt.set_optimize_out("/home/aistudio/PaddleOCR/output/LicensePlateV1/det/infer/det_db")
opt.run()
- 这是模型包,包含infer模型、nb模型和一张用来测试的图片(该图片使用infer模型在aistudio上能够正常检测) 链接:https://pan.baidu.com/s/1lGJSVER-1E4N4GtlzSf2ig 提取码:1234
您好,我们已经收到了您的问题,会安排技术人员尽快解答您的问题,请耐心等待。请您再次检查是否提供了清晰的问题描述、复现代码、环境&版本、报错信息等。同时,您也可以通过查看官网文档、常见问题、历史Issue来寻求解答。祝您生活愉快~
Hi! We've received your issue and please be patient to get responded. We will arrange technicians to answer your questions as soon as possible. Please make sure that you have posted enough message to demo your request. You may also check out the API,FAQ and Github Issue to get the answer.Have a nice day!
您好,请问使用paddlelite部署的设备是什么呢? 你这里将模型转化为arm cpu的模型,是实际部署在了 armlinux的开发板上了吗。ai studio 一般是基于服务器上gpu实现部署的, arm cpu 相较于 服务器 上 gpu上计算性能就是差很多。
如果想使用paddlelite达到更优的部署性能,建议在arm 开发环境上使用opencl gpu加速
数据处理做了吗
您好,请问使用paddlelite部署的设备是什么呢? 你这里将模型转化为arm cpu的模型,是实际部署在了 armlinux的开发板上了吗。ai studio 一般是基于服务器上gpu实现部署的, arm cpu 相较于 服务器 上 gpu上计算性能就是差很多。
如果想使用paddlelite达到更优的部署性能,建议在arm 开发环境上使用opencl gpu加速
部署的设备是Android
数据处理做了吗
这边使用的是PaddleOCR中的android_demo