jxt1234
jxt1234
这里面是按 aux 接口获取的,一般不会判断错
看着是有问题,我们检查一下
可能是 fp16 计算越界了,更新到 2.9.0 试下 precision = normal
用 Module API 推理
自行编写 jni 代码,调 MNN_Express 里面的 Module API 推理即可, https://mnn-docs.readthedocs.io/en/latest/inference/module.html
tokenizer.txt 是否正确?
麻烦签一下 CLA ,以便 review 合入
You can build MNN with opition -DMNN_BUILD_MINI=true -DMNN_SEP_BUILD=true to reduce MNN size. As the same time, you should convert MNN model with option --saveStaticModel
先用 testMNNFromOnnx.py 等工具测试
这个是打开了 MNN_ONEDNN ?