feifaxiaoming

Results 9 issues of feifaxiaoming

使用的是paddleClas relase版本 2.3 问题: 当我使用https://github.com/PaddlePaddle/PaddleClas/blob/deploy_v2/docs/zh_CN/advanced_tutorials/gallery2fc.md 这个链接识别模型转分类模型转分类模型的使用,运行 python ppcls/utils/gallery2fc.py -c ppcls/configs/GeneralRecognition/Gallery2FC_PPLCNet_x2_5.yaml的使用 一直提示NO module named 'ppcls' 只要是导入的头部带from ppcls.arch import build_model 就直接报错。 找不到ppcls,但是我是正常安装的啊。

bug

在使用https://github.com/PaddlePaddle/PaddleClas/blob/deploy_v2/docs/zh_CN/advanced_tutorials/gallery2fc.md 这个是在paddlecls developv2中转换的。因为2.3relase中报错。 这个将识别模型转换之后,使用paddlelite转成nb模型的时候报错。 使用的命令: paddle_lite_opt --model_file=./interface/rec.pdmodel --param_file=./interface/rec.pdiparams --optimize_out_type=naive_buffer --optimize_out=./interface/rec_nb --valid_targets=arm 我使用的paddlepaddle -gpu ==2.2.0 paddlelite = 2.10rc 运行上述命令之后报错。 Error: This model is not supported, because 1 ops are not supported...

bug

我使用的paddlepaddle -gpu ==2.2.0 paddlelite = 2.10rc 模型是使用的paddlecls中的识别模型 在使用https://github.com/PaddlePaddle/PaddleClas/blob/deploy_v2/docs/zh_CN/advanced_tutorials/gallery2fc.md 这个是在paddlecls developv2中转换的。因为2.3relase中报错。 这个将识别模型转换之后,使用paddlelite转成nb模型的时候报错。 使用的命令: paddle_lite_opt --model_file=./interface/rec.pdmodel --param_file=./interface/rec.pdiparams --optimize_out_type=naive_buffer --optimize_out=./interface/rec_nb --valid_targets=arm 运行上述命令之后报错。 Error: This model is not supported, because 1 ops are not...

my enviroment: centos 7 gcc is 4.8.5 8 GPU cuda 9.0

i use wiki dataset to train model ,all train pic is 48500. and set image size is 64 ,when i train in 90 epoch the loss Not falling。 val loss...

i run this train.py in tensorflow 1.12.0 ,but this have an error : 2019-07-24 11:12:20.997008: E tensorflow/stream_executor/cuda/cuda_dnn.cc:363] Loaded runtime CuDNN library: 7.0.3 but source was compiled with: 7.1.4. CuDNN library...

我在使用inference_ram.py 进行识别的时候,我如何在获取到标签的同时,能把标签对应的位置信息获取到呢。

### 请提出你的问题 我想问一下,paddleNLP中的uie

question

### 起始日期 | Start Date _No response_ ### 实现PR | Implementation PR 我想布置qwen-14B-chat推理模型,但是我只有两台16G显存的机器,一张卡上运行不起来模型,我想问一下,是否可以两台机器分布式部署推理模型 ### 相关Issues | Reference Issues _No response_ ### 摘要 | Summary 多台机器分布式部署推理模型 ### 基本示例 | Basic Example...

question
inactive