benjamin wan
benjamin wan
@pangoo-reuse 有好几种选择: A. 可以去群共享里下载整合好的工程源代码压缩包,在win、mac、linux平台都编译测试过; B. 自己用ultraedit等工具,把bat文件转成win格式; C. 删掉download的压缩包,用git工具同步项目;
模型的输出数据维度坐标不一样。 如果是c语言 可以参考https://github.com/RapidAI/RapidOCR/tree/main/cpp/RapidOCRCPP/src
看onnxruntime源代码,第517行 https://github.com/microsoft/onnxruntime/blob/main/tools/ci_build/build.py#L517 只支持这些选项 choices=["Visual Studio 15 2017", "Visual Studio 16 2019", "Visual Studio 17 2022", "Ninja"], 默认是这个default="Visual Studio 16 2019" 再看官方的说明文档 https://onnxruntime.ai/docs/build/inferencing.html The default Windows CMake Generator is Visual Studio...
如果想用vs2015编译 ocrlite项目,那就动态链接onnxruntime的dll,不要静态链接它。
做成dll调用,当然可以 这里有个简单的demo用于参考(没有把所有方法导出) https://github.com/benjaminwan/OcrLiteOnnxLibTest
模型的输入输出数据格式不一样,不能通用
the tts only supports chinese
https://github.com/benjaminwan/OcrLiteNcnn/blob/38ca3f506cf474aa926ce58d31ed9b441871a52a/src/OcrLite.cpp#L159 for (int i = 0; i < textBoxes.size(); ++i) { Logger("TextBox[%d](+padding)[score(%f),[x: %d, y: %d], [x: %d, y: %d], [x: %d, y: %d], [x: %d, y: %d]]\n", i, textBoxes[i].score, textBoxes[i].boxPoint[0].x,...
没有模型,我不是模型作者。 做不了。
鉴于OcrLiteNcnn的转换成功经验,我曾经做过[其它尝试](https://github.com/znsoftm/RapidOCR),过程比较折腾,并且最后也没有完全成功。 最后的出的结论,即使已经有转换成功的案例,但模型还是千差万别,没有100%转换成功的保证。 mnn转换理论上支持,但实际怎么样我不了解,暂时没有时间研究。