hpc203
hpc203
比较yolov5s.yaml,本仓库里的yolov5s.yaml跟官方作者ultralytics的yolov5s.yaml是有区别的。下面是我用Beyond Compare软件比较的结果图  左边是本仓库里的yolov5s.yaml,右边是ultralytics的yolov5s.yaml,可以看到这两个文件是有差别的
> Then when I infer the *.onnx by above, I get : > cannot reshape array of size 1632000 into shape (1,3,6,80,80) > cannot reshape array of size 408000 into...
> /media/yzl/C4A8E8FBE4769FDE/sr/cpp/opencv-4.2.0/modules/dnn/src/onnx/onnx_importer.cpp:327: error: (-215:Assertion failed) model_proto.has_graph() in function 'populateNet' > > 为什么会报这样的错误? 升级opencv再试一下
看报错信息,你的opencv版本是4.2的,需要升级opencv版本,才能运行的 ---Original--- From: ***@***.***> Date: Tue, Apr 26, 2022 23:52 PM To: ***@***.***>; Cc: ***@***.******@***.***>; Subject: Re: [hpc203/yolov5-dnn-cpp-python] error: (-215:Assertion failed)model_proto.has_graph() in function 'populateNet' (#22) /media/yzl/C4A8E8FBE4769FDE/sr/cpp/opencv-4.2.0/modules/dnn/src/onnx/onnx_importer.cpp:327: error: (-215:Assertion failed) model_proto.has_graph()...
这个仓库的代码有些旧了,最近我发布了使用opencv部署yolov5-v6.1的程序,源码地址是: https://github.com/hpc203/yolov5-v6.1-opencv-onnxrun 可以用这个新的,里面讲解了如何转换生成onnx文件
> 在推理阶段 读取模型就可以 ,请问为什么需要原始的9个anchors呢?有什么用呢 模型输出的是相对于anchor box的坐标偏移量,经过后处理decode结合anchor box的坐标信息,计算出detect box的真实坐标数值。 建议你去知乎阅读一下anchor的作用与意义的文章,你就明白在推理阶段,为何要使用anchors
pip install ocrd-fork-pylsd==0.0.3 from pylsd.lsd import lsd
> 多输入一些词 "多输入一些词",是哪些词呢?
对,这个异常情况,需要考虑的 ---Original--- From: ***@***.***> Date: Tue, Apr 16, 2024 11:21 AM To: ***@***.***>; Cc: ***@***.***>; Subject: [hpc203/yolov8-face-landmarks-opencv-dnn] AttributeError: 'tuple'object has no attribute 'flatten' (Issue #13) 图片无人脸情况下,cv2.dnn.NMSBoxes输出的indices是空的tuple()。 有人脸情况下输出的是array([2])。 所以if len(indices) >...
这个是做人脸检测的,只有face这一个类别的,不需要获得识别物体的类别呀 ---原始邮件--- 发件人: "Chen ***@***.***> 发送时间: 2024年3月2日(周六) 下午3:26 收件人: ***@***.***>; 抄送: ***@***.***>; 主题: [hpc203/yolov8-face-landmarks-opencv-dnn] 关于输出类别的问题 (Issue #12) 我想请教一下如何获得被识别物体的类别,我用cls_id但得到的不是正确的数字,谢谢 — Reply to this email directly, view it on GitHub, or unsubscribe....