wzyforgit

Results 75 comments of wzyforgit

> https://github.com/Tencent/ncnn/wiki/faq 这里面有,去翻一下

你仔细看param文件,里面已经执行归一化了 BinaryOp _minusscalar0 1 1 data _minusscalar0 0=1 1=1 2=127.500000 BinaryOp _mulscalar0 1 1 _minusscalar0 _mulscalar0 0=2 1=1 2=0.007812

> @wzyforgit 你好,请问v3版本你使用pnnx转ncnn转换成功了吗?我使用nihui编译pnnx教程,进行转换,一直不成功,出现debug.param debug2.param 啊这,我没折腾v3版本了,用原版的paddle代码都没达到我这边项目的要求,目前只用v2

NCNN的GPU推理是基于vulkan的,可能是你的P40的驱动不支持vulkan导致 可以通过vulkaninfo命令查看vulkan识别到的设备

> > NCNN的GPU推理是基于vulkan的,可能是你的P40的驱动不支持vulkan导致 可以通过vulkaninfo命令查看vulkan识别到的设备 > > vulkaninfo 也只能看到一个GPU,那这样的话是不是无解了 > > ================= VK_LAYER_NV_optimus (NVIDIA Optimus layer) Vulkan version 1.3.277, layer version 1: Layer Extensions: count = 0 Devices: count = 1...

https://github.com/wzyforgit/deep-learning-debugger/blob/master/src/alg/detect/yolov8npose.cpp 但是我只保留了姿态估计代码,其它部分需要你自己去原来的py文件移植 使用的话就是依次调这几个函数:init -> setImage -> analyze -> result

你是跑的什么模型?有些算子是只能串行处理的 另外你可以用openmp起多个extractor来进行多batch并行推理

If you use yolov8, you can see this project: https://github.com/triple-Mu/ncnn-examples/blob/main/python/yolov8/inference.py

You can use pnnx to convert model instead of onnx. https://github.com/pnnx/pnnx