jxt1234
jxt1234
::memcpy(input_1->writeMap(), src_mask.data(), src_mask.size() * sizeof(bool)); 这个 bool 都换成 int32_t
> > 设置 dyamic_size 后导出 onnx ,然后按指定输入用 testMNNFromOnnx.py 测试结果如何? > >  > > 结果如图,这个误差应该是正确的,不太大,C++里面的误差非常大 这个误差挺大的。更新到 2.9.0 测试下,仍然有问题的话发一下 onnx
这个是单例,不会重复申请,也不会释放
按线性布局取值即可,比如 mask[x, y] = data[y*width + x]
master 上这个宏已经弃用,若你在老版本上做了修改,请自行判断。
历史上的作用是把 cpu / metal 的注册函数由定义静态变量自注册改为在初始化函数中注册。现在这部分已经全部切换为在初始化函数中注册,不再使用静态变量注册的方法。
1. 用 MNNV2Basic.out 测试一下 2. 相关模型提交一下吧
看上去是判定 i8mm feature 出错了: support i8mm: 1 可以自行修改 cpuruntime.cpp 试试
大概率是 session api 的调用代码问题。fp16 的输入输出必须用 copyFromHost / copyToHost ,不能直接访问 tensor 的 host 指针。建议都用 Module API.
setCacheFile 是加快第二次 createSession 的,前后两次 createSession 的耗时对比是多少?