wzx___
wzx___
我也是一样的,测试了一下dbnet在mips平台上ncnn和tnn,ncnn大概8秒,tnn要一分多钟
[inference.sim.zip](https://github.com/Tencent/TNN/files/8067290/inference.sim.zip) 这个是报错的模型,希望可以得到帮助,谢谢啦
再补充一下,这个模型是paddleocr识别部分crnn转成onnx的,我发现tnn主页官方的demo模型是没有做sim的,并且转模型的时候也没有开-optimize选项,所以我把最原始的固定输入尺寸模型又尝试转了一下tnn

报错信息是这样的,因为paddle转onnx的时候,如果输入尺寸是动态的,那么动态的那个维度会默认用-1去表示,然而tnn转模型的时候好像不支持某个维度
[inference.zip](https://github.com/Tencent/TNN/files/8075869/inference.zip) 这个是最原始没有做过任何简化的onnx固定输入大小的模型,用onnxruntime可以正常推理结果也正确
使用Releases中最新源码包编译的

[results-1.txt](https://github.com/RangiLyu/nanodet/files/5840400/results-1.txt)
Why is it empty