changdazhou
changdazhou
> 请问我如何在服务器上配置一整个pipeline的API,而不是把layout detect工作放在client侧执行? 直觉上这个方法应该只上传文件,所有文档处理都放到服务端运行,而不是本地处理。 您可以参考官方文档的第4节,使用服务化部署方式实现:https://www.paddleocr.ai/latest/version3.x/pipeline_usage/PaddleOCR-VL.html
> > 您好,PP-DocLayutV2是PaddleOCR-VL中负责文档的版面的检测和阅读顺序的部分,如果只是单纯的文字识别,可以直接用其中的VLM部分PaddleOCR-VL-0.9B模型,但是可能有更多的人做文档解析,所以增加了PP-DocLayutV2。另外,PP-DocLayoutV2的参数量很少,所以不会占用很多空间。 > > 你好,只使用VLM部分要怎么使用呢,有相关文档吗 可以参考官方文档,通过设置 `use_layout_detection=Flase` ,并指定 `prompt_label` 类型来实现,默认为 OCR 识别
`ocr`、`table`、`formula` 和 `chart`
您是怎么测试的,单图测试可能并不准确哈,另外我们测试的是单模型速度哈
使用的是哪个模型呢
建议尝试一下使用PaddleX进行推理哈
建议在PaddleOCR官网进行尝试呢,我们最近对PaddleOCR-VL进行了一些打磨优化,如果您是本地推理建议尝试更新到最新版本paddleocr和paddlex后再次尝试:https://aistudio.baidu.com/paddleocr/task
> > 这是一个茎叶图,茎叶图的Latex代码会比较复杂,很多Latex的渲染引擎可能无法渲染,可以复制下来代码后,用overleaf等工具加载相关的包来渲染 > > 好,那些带表的,下面有注释解决不了,还有我上面说的那个点点图也不行 看下json中对于表格注释部分识别成了什么呢,或者可以提供一下原图我们这边测试一下哈
可以向我们的官方邮件发送哈:[email protected]