Thirty502
Thirty502
> 是不是改成服务之后一直在后台有进程驻留,任务完成后需要关闭进程以完成显存释放。 目前以magic_pdf_parse_main为基础,构建flask接口服务,请问我要怎样去处理显存释放,并且在多文件解析时,是否能够多线程解析
> 是不是改成服务之后一直在后台有进程驻留,任务完成后需要关闭进程以完成显存释放。 flask服务会长期造成显存驻留吗?调用接口后需要手动释放吗?
可以尝试构建一个flask服务,基于给出的demo可以很方便的实现
> paddle的模型是要在线下载的,或者你可以找一台联网的机器,下载好paddle的模型再拷贝到你离线部署的那台机器里 我下载的对应的包,并尝试将他放在提示的路径下,但系统仍然会联网进行下载,请问我该将他放在哪里才会生效
> 一般是用户目录的.paddleocr目录下 另外可能需要在/lib/python3.10/site-packages/paddleocr/tools/infer/utility.py:158 中根据这个方法中需要的路径在paddleocr初始化的时候传一下模型路径的参数  我的错误如上图,我将提示的包下载并放置在了对应的位置中,但他仍然会报上图一样的问题
> > 另外可能需要在/lib/python3.10/site-packages/paddleocr/tools/infer/utility.py:158 中根据这个方法中需要的路径在paddleocr初始化的时候传一下模型路径的参数 > > 可能需要在paddleocr初始化的时候指定一下本地模型路径 请问该如何去指定,我使用的是命令行调用的方式
> 需要修改代码中的 > > https://github.com/opendatalab/MinerU/blob/c0ee70d52505535f0dac3b16b5924d5d19f1f48a/magic_pdf/model/pdf_extract_kit.py#L142 > > > 来指定模型路径,命令行不支持这个操作。 那在离线环境下,我该如何来实现对扫描版pdf的处理
> @myhloli 我本地做上load from cache了会报这个错。。 > >  > >  你这个报错似乎是缺失了oonxruntime这个依赖包,你是否有安装?
经过测试,将对应的模型下载后,需要解压在相应的位置,系统仍然能够较好的运行