jxt1234
jxt1234
是的,目前仅 cpu / cuda 支持 5维 gridsample
1. 手机上 vulkan 和 opencl 的使用都是 把 MNN_USE_SYSTEN_LIB 关掉,不要用系统库 2. 一些Android设备上无法在命令行模式下调用 vulkan ,需要在 Android App 中加载使用 3. 默认绝大部分算子 gpu 都支持的,遇到回退的情况反映为性能变慢,提 issue 即可 4. 手机上出于性能考虑建议用 MNN_OPENCL ,优化投入相比 vulkan 更多
1. 是 mnn 运行时加载 libvulkan.so 2. 报的错是什么,如果是驱动不支持或者找不到库,会有报错
内部线程池主要考虑少量实例(小于2)的加速。在多实例情况下一般建议全部用单线程,外部用线程池,也可自行换成 openmp .
Dynamic=True will load module as expr function and decrease inference speed. It's for mnn to train model. Could you upload a project to reproduce the problem?
You can try not use raw numpy. Fully use MNN.numpy instead of numpy. The numpy data convert with MNN may cause error.
可以不进行 copy ,而是调 tensor->wait 等待 gpu 运行完成。以查看网络推理 gpu 延时
输出不要 resize m_mnnNet_decoder->resizeTensor(output_vector, {2, input_ids_size, 46});
设置 dyamic_size 后导出 onnx ,然后按指定输入用 testMNNFromOnnx.py 测试结果如何?
int i_modelW2 = input_img->width(); int i_modelH2 = input_img->height(); int i_modelC2 = input_img->channel(); int i_modelB2 = input_img->batch(); int i2_modelW2 = input_mask->width(); int i2_modelH2 = input_mask->height(); int i2_modelC2 = input_mask->channel(); int i2_modelB2...