Code-WHappy

Results 8 comments of Code-WHappy

现在把dll库重新编译后,初始化OK了,但是预测出错了。用的cpu,没有用gpu 初始化代码 ![image](https://user-images.githubusercontent.com/88868467/133041301-ef7006a9-6177-4328-86de-e677f4872e91.png) 预测的代码 ![image](https://user-images.githubusercontent.com/88868467/133041170-3df87175-2751-4e02-8f67-8818a787893e.png)

Paddlex gui v2.0.0正式版导出的模型。PPYOLO V2

PPYOLOTiny,可以预测,但是PPYOLO V2不可以,不知道为啥,是bug吗? 以下是PPYOLO V2训练参数 ![image](https://user-images.githubusercontent.com/88868467/133046402-881b5e76-d30e-4b73-a2d5-16bfabd72f55.png) 导出模型的相关参数,即model.yml文件 Model: PPYOLOv2 Transforms: - Resize: interp: CUBIC keep_ratio: false target_size: !!python/tuple - 320 - 320 - Normalize: is_scale: true max_val: - 255.0 - 255.0...

我实际测试,debug可以跑,release不行。但是我这台机直接用debug文件夹下应用程序可以跑,另外一台机就跑不了,直接提示无法导入model_infer.dll

两个线程一个model,但是线程1调用时,线程2不用。不会出现冲突的问题。有办法解决这个问题吗?不然调试起来太麻烦。因为我们自动运行是一个线程,调试是一个线程

![image](https://user-images.githubusercontent.com/88868467/137833423-3aca97b2-2654-4856-b4e4-7e5300d721ab.png) 这是最终定位到的错误

我看了下你们这个multi_thread_infer2.cpp,这是推理的时候多线程同时推理,然后再合并结果。我们需要的是,一个推理一个线程即可,但是需要在线程ID变化的情况下也能用。也就是说线程1调用后,线程2在调用也可以