yolov5_demo
yolov5_demo copied to clipboard
加速效果不明显
请教一下大佬,为什么要单拿出来这三个输出层?而不是直接用最后的output(我训练来的模型转换成onnx 在netron里看起来和你的不太一样 层间的结构 和层的编号都不同) 另外 我按照直接输出最后output的方法转换 感觉加速效果并不明显 原pytorch代码平均0.39一张图片 openvino加速后的是大约0.35 感觉没有质的变化。我用的yolov5_640_x的模型 2021.2openvino python 3.6.5 这种现象正常吗 还是我的模型转换有问题
单独拿出3个输出层是为了跟yolov3 align。 当然也是可以直接转的,直接转也是可以转成功的,只是需要自己写相应的后处理(甚至可能都不用写后处理了)。
如果是相同release的yolov5,不进行任何修改的话,层的结构和编号应该是一样的。如果不一样,其实也不影响转换,只要找到每一个分支下面的最后一个conv,在转换的时候,指定output name即可。
”直接输出最后output的方法转换“是不指定输出层? 我有这么转过,但是没有解析过,也没有和pytorch对比过时间。请问你在什么硬件上运行的呢?哪个CPU、iGPU? 如果有iGPU,建议用iGPU,FP16的数据精度,效果能好一些。
请教下,我是直接转的,我看openvino可以支持onnx所以先使用了下 ie = IECore() model = "person.onnx" net = ie.read_network(model=model) 这个是正常的 但是通过:python mo_onnx.py --input_model person.onnx 转换的结果 出来的全是小数,坐标还有负的,请问这是什么原因呀
请教下大佬,Intel(R) Core(TM) i5-9400 CPU @ 2.90GHz 2.90 GHz,gpu 2080ti,但是跑出来yolo parsing time 大概在200,opencv rendering time 大概是3秒。我操作的有问题么?
我也是...直接在CPU上运行是45毫秒左右,然而通过这样openvino处理后,推理时间是1毫秒多可是yolo parsing time却有70多毫秒,这些后处理拿出来反而使得加速没有啥优势了