Results 338 comments of jxt1234

2.9.5 已经修正,可以更新并测试下,内部验证结果是快于 2.8.1 版本

Thanks. Please sign the CLA and then we can merge it.

1. 目前 qnn 后端不支持运行 llm 2. qnn 后端目前在 app 中的使用确实可能存在问题,后续会修正

完整测试代码是?

1. Express / Module API 不是线程安全的,不同线程中调用需要绑定同一个 executor https://mnn-docs.readthedocs.io/en/latest/inference/module.html#id1 。 2. MNN::CV 使用的是 Express ,因此并非线程安全,同样需要先创建一个 Executor ,在调用 MNN::CV 相关函数时绑定该 Executor 。这个 mnn 后面会优化相关 api。

目前支持部分 CV 模型(mobilenet 等),正在支持 llm 。

1. 先用 testMNNFromOnnx.py 测试原始模型和 mnn 推理结果是否一致 2. 推理代码中存在问题:对于多输入的 Session ,需要 resize 所有输入后再 resizeSession ,resizeSession 之后再填充数据。推理代码中每次都 resizeSession 会导致前面的输入填充无效。建议换用 module api ,不容易出问题: https://mnn-docs.readthedocs.io/en/latest/inference/module.html

已经进行处理了的,可以在 llmexport.py 和 vision.py 里面找一下

应该是指 mnn llm 吧。其他模型是支持使用 vulkan 的。这个还在计划中