lite.ai.toolkit
lite.ai.toolkit copied to clipboard
🛠 A lite C++ toolkit of awesome AI models, support ONNXRuntime, MNN, TNN, NCNN and TensorRT.
如何获取多维输出
我的模型是基于热图的姿态检测,模型输出shape是一个张量(1,3,48,64),如果通过直接用指针方式获取,会打乱数据排布后处理就麻烦一些,所以想请教一下onnxruntime能不能直接获取一个tensor,或者可以对结果进行reshape操作
This library is awesome, I've been using TNN on mobile apps, but it hasn't been updated with a stable build for 3 years, have you done a benchmark on mobile...
感谢作者分享,看了作者源码学到很多东西。 在[ort_handler.cpp](https://github.com/DefTruth/lite.ai.toolkit/blob/main/lite/ort/core/ort_handler.cpp) 代码的104行中  onnx_path 指向了一个临时内存,在离开构造函数之后。_w_onnx_path会被释放掉。会导致onnx_path失效。(作为c++初学者,我想知道我的理解是否有错?)
The most important thing in face recognition is to align face images after detected faces from the image. So it can correctly get the embedding code for the detected face...
我将模型的onnx直接转成 mnn模型, 直接从模型读取出来的分辨率是-1, 设置输入分辨率后运行失败
感谢大佬做的工作,根据issue,win10配置工程。但只生成dll,我如何利用这个dll 去调试代码呢?
依照项目部署命令 ```cmake git clone --depth=1 https://github.com/DefTruth/lite.ai.toolkit.git # latest cd lite.ai.toolkit && sh ./build.sh # >= 0.2.0, support Linux only. ``` 和output check代码 ```cmake cmake_minimum_required(VERSION 3.10) project(lite_yolov5) set(CMAKE_CXX_STANDARD 17) set(lite.ai.toolkit_DIR YOUR-PATH-TO/lite.ai.toolkit/build/install)...
版本0.1.1已经可以在Windows中运行,并且也添加了自己训练的模型。现在想将自己的模型封装成C函数接口并在C#中使用,存在一些问题。接口代码已经写完,按照Windows打包DLL教程输出了DLL,但在使用C++测试C接口时,封装了OpenCV的接口无法读取图片。 是否打包成C函数接口DLL需要和添加模型中的教程类似?在添加的模型类中再定义该模型的C函数接口,模型类和接口函数一起按照添加模型教程中的方法走一遍。 谢谢。