Paddle-Lite icon indicating copy to clipboard operation
Paddle-Lite copied to clipboard

x86 平台 picoDet 不支持导出

Open DavidQiuChao opened this issue 2 years ago • 3 comments

Error: This model is not supported, because 1 ops are not supported on 'x86'. These unsupported ops are: 'matmul_v2'.

DavidQiuChao avatar May 19 '22 08:05 DavidQiuChao

您好,我们已经收到了您的问题,会安排技术人员尽快解答您的问题,请耐心等待。请您再次检查是否提供了清晰的问题描述、复现代码、环境&版本、报错信息等。同时,您也可以通过查看官网文档常见问题历史Issue来寻求解答。祝您生活愉快~

Hi! We've received your issue and please be patient to get responded. We will arrange technicians to answer your questions as soon as possible. Please make sure that you have posted enough message to demo your request. You may also check out the APIFAQ and Github Issue to get the answer.Have a nice day!

paddle-bot-old[bot] avatar May 19 '22 08:05 paddle-bot-old[bot]

你好,你目前是希望在什么平台上进行模型推理呢?目前x86平台不支持matmul_v2,如果是希望在x86或者nvidia gpu上推理,推荐使用paddle inference

zhupengyang avatar May 19 '22 11:05 zhupengyang

你好,你目前是希望在什么平台上进行模型推理呢?目前x86平台不支持matmul_v2,如果是希望在x86或者nvidia gpu上推理,推荐使用paddle inference

这么常用的算子为什么不支持呢,用好几个推理框架去适配不同平台太割裂了. 而且有些时候只是先在x86上把流程跑通,然后交叉编译到目标平台的

HaoLiuHust avatar Jul 29 '22 03:07 HaoLiuHust

你好,你目前是希望在什么平台上进行模型推理呢?目前x86平台不支持matmul_v2,如果是希望在x86或者nvidia gpu上推理,推荐使用paddle inference

这么常用的算子为什么不支持呢,用好几个推理框架去适配不同平台太割裂了. 而且有些时候只是先在x86上把流程跑通,然后交叉编译到目标平台的

大佬,请问问题解决了吗

Dandelion111 avatar Mar 06 '23 11:03 Dandelion111

你好,你目前是希望在什么平台上进行模型推理呢?目前x86平台不支持matmul_v2,如果是希望在x86或者nvidia gpu上推理,推荐使用paddle inference

这么常用的算子为什么不支持呢,用好几个推理框架去适配不同平台太割裂了. 而且有些时候只是先在x86上把流程跑通,然后交叉编译到目标平台的

大佬,请问问题解决了吗

用他们新出的fastdeploy吧···

HaoLiuHust avatar Mar 06 '23 13:03 HaoLiuHust