dlkht
dlkht
打算将paddle pp-OCRv2模型部署到android手机端测试,首先用paddle lite opt工具优化模型,请问opt优化时,是否会将模型中紧靠着的 conv(卷积)层和batchNorm层合并优化呢? 谢谢!
**1. 环境(environment)** - RunTime DEVICE: ARM(arm64-v8a) **2. Github版本** - branch:master **3. 编译方式(compile method)** CMake完整编译参数(full cmake arguments) 我将paddle 的ppOCR_V2转成onnx,再转成tnn模型,然后将预测程序移植到android手机上运行,发现tnn的速度比paddle-lite 慢 40%左右,手机是4核CPU,打开4线程。 请问有什么方法可以更快吗?
设置了export CUDA_VISIBLE_DEVICES="0,1,2",dist_backend="gloo" 训练开始发现三个 rank都分配在GPU0,另外两个GPU没有使用到, 应该怎么设置? 谢谢!
你好! 机器翻译examples/machine_translator/transformer下有动态和静态static两种训练程序, 静态的train.py没有init_from_checkpoint 相关代码,我先训练出了动态模型,然后想用 静态训练的train.py在动态训练断点基础上训练,然后我在transformer/static/train.py 加入以下代码(按照动态train.py的写法): if args.init_from_checkpoint: paddle.disable_static() model_dict = paddle.load( os.path.join(args.init_from_checkpoint, "transformer.pdparams")) #opt_dict = paddle.load( # os.path.join(args.init_from_checkpoint, "transformer.pdopt")) transformer.set_state_dict(model_dict) #optimizer_0.set_state_dict(opt_dict) print("loaded from checkpoint.") paddle.enable_static() 发现貌似能接着动态训练断点训练, 1、请问这个写法正确吗?最正规的方法是什么? 2、另外这种写法optimizer_0.set_state_dict(opt_dict)却不通过,为什么?
版本、环境信息: 1)Paddle Lite 版本:release/2.11 2)Host 环境:Ubuntu 20.04 paddlepaddle-gpu : 2.3.2 paddleslim : 2.3.4 - 模型信息 1)transformer 2)[模型链接] 链接:https://pan.baidu.com/s/1sjNHKe6jnnCbMNFP9CZWBA 提取码:rdtk - 复现信息: - 提供 OPT 使用命令或方法,用于复现问题 ./opt --model_file=./transformer.pdmodel --param_file=./transformer.pdiparams --optimize_out_type=naive_buffer --optimize_out=./pdl_nmt_quant...
涉及版本: paddlepaddle-gpu : 2.3.2 paddleslim : 2.3.4 paddle lite opt 2.10 1.我用https://github.com/PaddlePaddle/PaddleNLP/blob/develop/examples/machine_translation/transformer/static/train.py 训练了一个中英翻译模型 2. 然后再用paddleslim的quant_aware 进行静态量化训练,得出infer模型 transformer.pdiparams和transformer.pdmodel 3. 最后用paddle lite opt工具(2.10)进行优化转换,命令是: ./opt --model_file=./transformer.pdmodel --param_file=./transformer.pdiparams --optimize_out_type=naive_buffer --optimize_out=./pdl_nmt_quant --valid_targets=arm 结果报错,提示如下: Loading topology...
- 版本、预测库信息: 1)Paddle Lite 版本:v2.9 2)android 3)oppo A7x 4)预测后端信息:CPU/GPU(mali g31) - 预测信息 1)预测 API:C++ API 2)预测选项信息:armv8、多线程 3)预测库来源:官网下载/PP-OCRv2 OCR移动端模型 用paddle-lie opt工具优化模型,vilad-target选opencl, 在android手机用c++ API运行检测和识别,发现: 1,opencl只能运行检测,不能运行识别(崩溃) 2,opencl运行检测比cpu运行还慢 请问是什么原因? 另外,有的硬件平台只有openGL驱动,请问paddle-lite ops支持opengl 吗?谢谢!
你好! 我用paddlenlp/examples/machine_translator/transformer的train.py程序训练了一个翻译模型,想压缩优化下,请问 paddleslim哪种工具可以有效优化transformer模型(压缩,提速等)?
### 问题描述 paddle=v2.3.2 paddlenlp = v2.3.2 paddle-lite = v2.10 or v2.11 用https://github.com/PaddlePaddle/PaddleNLP/tree/develop/examples/machine_translation/transformer/static训练出一个中英翻译模型,Linux环境下python可以推理,结果正确。用paddle lite 工具opt优化时,提示出错信息,如下: Loading topology data from ./transformer.pdmodel Loading params data from ./transformer.pdiparams 1. Model is successfully loaded! [F...