lite.ai.toolkit
lite.ai.toolkit copied to clipboard
🛠 A lite C++ toolkit of awesome AI models, support ONNXRuntime, MNN, TNN, NCNN and TensorRT.
请问可否用arrch64编译呢,这个代码能部署到arm吗 编译时 我只开启了mnn 可以找到 libmnn 但是编译过程中报如下的错
## 补充说明 首先,非常感谢 @zhanghongyong123456 同学这份详细的windows下配置lite.ai.toolkit 的教程~ 简直太热心啦~ 用windows的同学可以先看这份教程进行配置~ 以及以下相关issues的讨论。 ## References for Windows10 users windows下的使用可以参考以下这几个讨论(some references for windows users) * 👉 #6 * 👉 #10 * 👉 #32 * 👉...
这个issue主要讲一下,如何把你自己的模型添加到lite.ai.toolkit。lite.ai.toolkit集成了一些比较新的基础模型,比如人脸检测、人脸识别、抠图、人脸属性分析、图像分类、人脸关键点识别、图像着色、目标检测等等,可以直接用到具体的场景中。但是,毕竟lite.ai.toolkit的模型还是有限的,具体的场景下,可能有你经过优化的模型,比如你自己训了一个目标检测器,可能效果更好。那么,如何把你的模型加入到lite.ai.toolkit中呢?这样既能用到lite.ai.toolkit一些已有的算法能力,也能兼容您的具体场景。这个issue主要是讲这个问题。大家有疑惑的可以提在这个issue,我会尽可能回答~
C++小白搞不定相互依赖的openvc等环境,求小白教程
由于问这个问题的人比较多,我在lite里面增加了一些辅助函数来实现背景合成,但还没合并进主分支,具体细节可以参考以下这段逻辑,有需要的可以参考一下(目前不考虑性能的优化问题,有需要的同学可以自己根据这段逻辑做特定的性能优化): ```c++ void lite::utils::swap_background(const cv::Mat &fgr_mat, const cv::Mat &pha_mat, const cv::Mat &bgr_mat, cv::Mat &out_mat, bool fgr_is_already_mul_pha) { // user-friendly method for background swap. if (fgr_mat.empty() || pha_mat.empty() || bgr_mat.empty()) return;...
您好!我想请教一下,想在 Linux 中运行您工作中的 onnx 模型,需要: * 在类似 vscode 之类中编译吗?还是直接可以在终端完成检测、抠图,就好了 * 除了 opencv 需要安装其他依赖吗 * 因为看到您的仓库中有 onnx,所以可以直接用吗?还是得像您 readme 中说的自己去官方下载
Ort::Env m_env; Ort::Session m_session; 请问这两个关系是怎么样的,之前看onnxruntime的文档介绍,Ort::Env是一个全局唯一的,如果要实现一个生产者消费者的推理模块来扩大推理引擎的并发性,是不是所有线程共用一个Ort::Env,每个消费者线程新建一个Ort::Session对象?麻烦不吝指教