jxt1234
jxt1234
threadNumber 是多少?用 opencl / vulkan 试一下? 用这个工具测试下各种参数配置的速度吧: https://mnn-docs.readthedocs.io/en/latest/tools/test.html#modulebasic-out
1. 执行 run_test.out speed/MatMulBConst ,可以看到理想状态的性能。可以和当前模型 benchmark 的结果对比一下看看。 2. AMD 的 CPU 不支持 precision = low ,也就是 fp16 推理 3. 有可能是最后几层输出通道过小,AVX2 上 MNN 基础计算的通道数是 8 。
建议用 ModuleBasic 测试,这个工具测试时会打印模型运行的效率。
Use testMNNFromOnnx.py to test. The error may be caused by subgraph's inputs not valid.
It seems has error with dequant. Could you use float model convert to MNN and then quantized it by MNN ?
why add export LDFLAGS="-z noexecstack" ?
1. 更新 MNN 到最新;2. 用 https://mnn-docs.readthedocs.io/en/latest/tools/test.html#modulebasic-out 测试一下看看,加上 mask = 2 看下哪层出的异常
相关模型发上来看一下?
链接貌似无效,可能是未上传成功? 有简单的代码导出 onnx 复现么?
你的调用代码是什么样的?常见问题是 BackendConfig 在创建 session 前被释放了