heliqi
heliqi
好的, 后续我们会加上
是不是使用了多线程? 我看报错提示是因为同时访问了inputs导致的报错
1. 如果只有一个模型实例, 确保线程中的推理已经完成,再传入新的图片调用推理。 比如下面这个PR中的multi_thread_infer2.cpp例子中的 future1.get(); 就是保证线程计算完毕: https://github.com/PaddlePaddle/PaddleX/pull/1179 2. 请使用线程池,初始化线程数量后,重复复用这些线程。避免线程频繁的销毁创建,导致底层cuda问题
在model_deploy/utils目录下有可视化和过滤相关代码。你参考使用看看是否还有问题?
numclasses是模型的的类别数, model.yaml文件里应该也有, 视盘分割的例子是两个类别, 填2即可 后面这个“data的尺寸是1024不对的” 没看懂啥意思
检查下你的执行指令, 看报错是你输入的图片路径有问题, 读取到的图片是空的。 可以把执行指令发出来看看,你自己可以在demo/model_infer.cpp代码里加几行打印, 定位下看看是哪一句代码导致报错的
目前暂无计划包含NLP相关的repo
如果你想挑战下。 可以参考这个文档, 把报错的每一个输入shape设置上即可。 https://github.com/PaddlePaddle/PaddleX/blob/release/2.0.0/deploy/cpp/docs/demo/tensorrt_infer.md
第一个报错就是x,参照文档、修改demo/tensorrt_infer.cpp设置好输入x的shape就行了 第二个报错应该是你固化的有问题, 看起来还有个输入Y没固定, 具体需要你自己看看模型。 可以用visualdl查看下
如报错所提示, 检查下你的cuda版本、cudnn版本 跟你安装的 paddlepaddle 是否一致。 不同cuda版本, 安装的指令是不一样的, 具体请看 https://www.paddlepaddle.org.cn/install/quick?docurl=/documentation/docs/zh/install/pip/windows-pip.html