qianduixue

Results 8 comments of qianduixue

@zhigfu @xingjing1 其实只需要把intelfpga_subgraph_pass提前到mlu_subgraph_pass后面,再把place.target == TARGET(kIntelFPGA)删了就行

> > > [c85034f](https://github.com/PaddlePaddle/Paddle-Lite/commit/c85034f69ebab7af657ef7f390e1312191a4a2f2)) > > > > > > > > 先确认使用硬件、paddle版本、paddleSlim版本,较早版本的Slim是没有全量化的 另外,关于priorBox,如果是arm cpu那PriorBox是不会离线处理的(Arm同学修改 [c85034f69ebab7af657ef7f390e1312191a4a2f2)](https://github.com/PaddlePaddle/Paddle-Lite/commit/c85034f69ebab7af657ef7f390e1312191a4a2f2%EF%BC%89) > > > > > > > > > 我们使用的是paddlepaddle2.1.3 paddleslim2.1 paddlelite 2.9(注册过fpga子图算子的),硬件平台是intel fpga...

> > 1. 部分conv2d 算子没有被融合到subgraph op里面确实蛮奇怪的,目前有两个原因:1)我发现你的 relu 算子缺少 Out0_threshold 属性,可能是PaddleSlim的问题;2)你是不是配置了自定义子图切分文件强制将这些 conv2d 算子异构到 CPU 了 ? https://www.paddlepaddle.org.cn/lite/develop/demo_guides/huawei_kirin_npu.html > > 2. 你的模型看起来是ssd系列的,而且是基于动态图训练的模型,因为我发现ssd模型中的box_coder使用了大量细粒度算子实现,建议你将这个开关 `use_fuse_decode` https://github.com/PaddlePaddle/PaddleDetection/blob/release/2.4/ppdet/modeling/layers.py#L574 设置为 TRUE,重新导出一下模型,这样后面一大堆的细粒度算子也能用box_coder算子代替,而且prior_box算子也能够被离线处理成常量。 > > 经我查证 ![image](https://user-images.githubusercontent.com/87405313/173385892-518c0f8f-5545-48b4-85c1-ddbdca30ba67.png) 这个多输出节点输出真的就是32位的,请问有什么单独量化这个节点的方法吗? @Student-Fuz...

@Student-Fuz @While11 我感觉不是模型导出的问题,是paddlelite intelfpga算子的问题

让transpose和concat强制接受int8输入即可

@SunYF-0729 请问你这个模型的mAP怎么到77%的,你是用VOC训练的吗?我最高73.6%