wzx___

Results 33 comments of wzx___

我也是一样的,测试了一下dbnet在mips平台上ncnn和tnn,ncnn大概8秒,tnn要一分多钟

[inference.sim.zip](https://github.com/Tencent/TNN/files/8067290/inference.sim.zip) 这个是报错的模型,希望可以得到帮助,谢谢啦

再补充一下,这个模型是paddleocr识别部分crnn转成onnx的,我发现tnn主页官方的demo模型是没有做sim的,并且转模型的时候也没有开-optimize选项,所以我把最原始的固定输入尺寸模型又尝试转了一下tnn

![1R3T362MI~G9 XGC@{922$M](https://user-images.githubusercontent.com/57340568/154176814-eeeb210f-32fa-45c2-8a6f-f54dd79d8682.png)

报错信息是这样的,因为paddle转onnx的时候,如果输入尺寸是动态的,那么动态的那个维度会默认用-1去表示,然而tnn转模型的时候好像不支持某个维度

[inference.zip](https://github.com/Tencent/TNN/files/8075869/inference.zip) 这个是最原始没有做过任何简化的onnx固定输入大小的模型,用onnxruntime可以正常推理结果也正确

使用Releases中最新源码包编译的

![19733b47a269f42ef1c110a0f17f6a5](https://user-images.githubusercontent.com/57340568/111581972-21e00980-87f5-11eb-899b-b15c7484557c.png)

[results-1.txt](https://github.com/RangiLyu/nanodet/files/5840400/results-1.txt)

Why is it empty