Code-WHappy
Code-WHappy
现在把dll库重新编译后,初始化OK了,但是预测出错了。用的cpu,没有用gpu 初始化代码  预测的代码 
Paddlex gui v2.0.0正式版导出的模型。PPYOLO V2
PPYOLOTiny,可以预测,但是PPYOLO V2不可以,不知道为啥,是bug吗? 以下是PPYOLO V2训练参数  导出模型的相关参数,即model.yml文件 Model: PPYOLOv2 Transforms: - Resize: interp: CUBIC keep_ratio: false target_size: !!python/tuple - 320 - 320 - Normalize: is_scale: true max_val: - 255.0 - 255.0...
我实际测试,debug可以跑,release不行。但是我这台机直接用debug文件夹下应用程序可以跑,另外一台机就跑不了,直接提示无法导入model_infer.dll
两个线程一个model,但是线程1调用时,线程2不用。不会出现冲突的问题。有办法解决这个问题吗?不然调试起来太麻烦。因为我们自动运行是一个线程,调试是一个线程
还没有解决,官方还没给出解决方案
 这是最终定位到的错误
我看了下你们这个multi_thread_infer2.cpp,这是推理的时候多线程同时推理,然后再合并结果。我们需要的是,一个推理一个线程即可,但是需要在线程ID变化的情况下也能用。也就是说线程1调用后,线程2在调用也可以