DefTruth

Results 214 comments of DefTruth

@zhanghongyong123456 哇~ 简直太赞啦!!!太感谢这位同学详细的windows配置教程啦!!!我要把这个issue置顶!

> 我按照这个教程完成了,但在RVM中生成的EXE点开后闪退。还有我在test_lite_rvm.cpp中设置了断点,可实际上程序根本没有运行到test_lite()。请问有实现成功的人帮助下吗 你要确保所有的库都能链接上,比如要拷贝到exe相同的目录,并且模型文件已经下载好放在对应的位置,具体细节请参考rvm示例工程的C++代码。

> 感谢提醒,这是lite.ai.toolkit TNN版本的已知的bug,会导致在在windows下发生内存泄漏,mac和linux可以正常运行。正在修复中... 相关issue可见: * #240

很抱歉,暂时没有,个人能力有限啊😂,现在提供的是C++的source code。坐等大佬来兼容

# 如何添加您的模型以及成为贡献者? ## Lite.Ai.ToolKit代码结构介绍 lite.ai.toolkit采用了尽可能解耦的方式来管理代码,基于不同的推理引擎的实现是相互独立的,比如ONNXRuntime版本的YOLOX和MNN版本的YOLOX是相互独立的,他们的代码分别管理在不同的目录下,你可以只编译ONNXRuntime版本的实现。为方便lite.ai.toolkit的用户添加自己的模型,这里简单介绍下lite.ai.toolkit的代码布局。 * lite文件夹 该文件夹的根目录下包含了所有的主要代码,其结构如下: ```text # --------------------------- 这部分是管理整理工程的代码 被下游的各个模块依赖 ---------------------------------- ├── backend.h # 宏处理 决定基础的推理引擎 目前必须是ONNXRuntime ├── config.h # 宏处理 ├── config.h.in # cmake编译时宏处理 ├── lite.ai.defs.h...

我这里的代码目前支持RVM和MGMatting的后处理逻辑,性能要看有没有编译GPU版本的lite.ai.toolkit,cpu耗时跟图片大小有关系,另外就是rvm本身是比较难在cpu实时的,可以看一下rvm的论文和仓库说明

参考rvm.cpp的多输入多输出的写法,在Run的时候传入多个tensor以及对应的names和dims

> > 参考rvm.cpp的多输入多输出的写法,在Run的时候传入多个tensor以及对应的names和dims > > 我可以直接继承 BasicMultiOrtHandler 来写吗? 这个没测试过,最好不要,因为多输入多输出的逻辑,通常不具备统一的范式,所以这种情况比较建议重新写,参考rvm.cpp的写法就可以了

## 2022/02/23 公告: 预编译库计划 由于使用这个库的人突然多了起来,这是我没想到的,之前只是想自己写着玩的,所以预编译库和源码编译的文档做的还不是很完善。已经陆陆续续有同学在催了,还有位兄弟等了将近半年 ....... 实在是让我开始有点良心难安啊😂,因为平时工作比较忙,所以这个库的一些计划被搁置了。我是没想到会有那么多人想用😂,已经在安排各个操作系统的prebuilt了,windows、mac和linux的预计会在这几个礼拜放出来,到时可以直接下载使用了;android的会稍晚点; 另外一个python版本的lite.ai.toolkit也在来的路上了,到时可以通过pip直接安装。 ### 预编译计划(pre-built plan) * [ ] 2022/02/29: MacOS下的lite.ai.toolkit预编译库 * [ ] 2022/03/07: Linux下的lite.ai.toolkit预编译库 * [ ] 2022/03/15: Windows10下的lite.ai.toolkit预编译库 * [ ] 2022/04/15:...