Paddle-Lite
Paddle-Lite copied to clipboard
x86 平台 picoDet 不支持导出
Error: This model is not supported, because 1 ops are not supported on 'x86'. These unsupported ops are: 'matmul_v2'.
您好,我们已经收到了您的问题,会安排技术人员尽快解答您的问题,请耐心等待。请您再次检查是否提供了清晰的问题描述、复现代码、环境&版本、报错信息等。同时,您也可以通过查看官网文档、常见问题、历史Issue来寻求解答。祝您生活愉快~
Hi! We've received your issue and please be patient to get responded. We will arrange technicians to answer your questions as soon as possible. Please make sure that you have posted enough message to demo your request. You may also check out the API,FAQ and Github Issue to get the answer.Have a nice day!
你好,你目前是希望在什么平台上进行模型推理呢?目前x86平台不支持matmul_v2,如果是希望在x86或者nvidia gpu上推理,推荐使用paddle inference
你好,你目前是希望在什么平台上进行模型推理呢?目前x86平台不支持matmul_v2,如果是希望在x86或者nvidia gpu上推理,推荐使用paddle inference
这么常用的算子为什么不支持呢,用好几个推理框架去适配不同平台太割裂了. 而且有些时候只是先在x86上把流程跑通,然后交叉编译到目标平台的
你好,你目前是希望在什么平台上进行模型推理呢?目前x86平台不支持matmul_v2,如果是希望在x86或者nvidia gpu上推理,推荐使用paddle inference
这么常用的算子为什么不支持呢,用好几个推理框架去适配不同平台太割裂了. 而且有些时候只是先在x86上把流程跑通,然后交叉编译到目标平台的
大佬,请问问题解决了吗
你好,你目前是希望在什么平台上进行模型推理呢?目前x86平台不支持matmul_v2,如果是希望在x86或者nvidia gpu上推理,推荐使用paddle inference
这么常用的算子为什么不支持呢,用好几个推理框架去适配不同平台太割裂了. 而且有些时候只是先在x86上把流程跑通,然后交叉编译到目标平台的
大佬,请问问题解决了吗
用他们新出的fastdeploy吧···