这个截图到底要读取多久
第一次运行,上传截图,读取了1-2个小时还没出现结果,第二次,第三次也没等到结果?明明有使用CUDA,但是为什么这么慢?是不是会一直这么转下去。
如果您在使用Clash或任何基于Clash内核的客户端,请尝试关闭后运行demo,我在之前的使用也有遇到同样的问题,希望这能帮助到你
如果您在使用Clash或任何基于Clash内核的客户端,请尝试关闭后运行demo,我在之前的使用也有遇到同样的问题,希望这能帮助到你
我用的Xray,关了后,不用等了,但运行直接报错,
Traceback (most recent call last): File "C:\Users\21119\anaconda3\envs\omni\Lib\site-packages\gradio\queueing.py", line 625, in process_events response = await route_utils.call_process_api( ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\21119\anaconda3\envs\omni\Lib\site-packages\gradio\route_utils.py", line 322, in call_process_api output = await app.get_blocks().process_api( ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\21119\anaconda3\envs\omni\Lib\site-packages\gradio\blocks.py", line 2044, in process_api result = await self.call_function( ^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\21119\anaconda3\envs\omni\Lib\site-packages\gradio\blocks.py", line 1591, in call_function prediction = await anyio.to_thread.run_sync( # type: ignore ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\21119\anaconda3\envs\omni\Lib\site-packages\anyio\to_thread.py", line 33, in run_sync return await get_asynclib().run_sync_in_worker_thread( ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\21119\anaconda3\envs\omni\Lib\site-packages\anyio_backends_asyncio.py", line 877, in run_sync_in_worker_thread return await future ^^^^^^^^^^^^ File "C:\Users\21119\anaconda3\envs\omni\Lib\site-packages\anyio_backends_asyncio.py", line 807, in run result = context.run(func, *args) ^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\21119\anaconda3\envs\omni\Lib\site-packages\gradio\utils.py", line 883, in wrapper response = f(*args, **kwargs) ^^^^^^^^^^^^^^^^^^ File "C:\Users\21119\OmniParser\gradio_demo.py", line 54, in process dino_labled_img, label_coordinates, parsed_content_list = get_som_labeled_img(image_input, yolo_model, BOX_TRESHOLD = box_threshold, output_coord_in_ratio=True, ocr_bbox=ocr_bbox,draw_bbox_config=draw_bbox_config, caption_model_processor=caption_model_processor, ocr_text=text,iou_threshold=iou_threshold, imgsz=imgsz,) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\21119\OmniParser\util\utils.py", line 434, in get_som_labeled_img ocr_bbox_elem = [{'type': 'text', 'bbox':box, 'interactivity':False, 'content':txt, 'source': 'box_ocr_content_ocr'} for box, txt in zip(ocr_bbox, ocr_text) if int_box_area(box, w, h) > 0] ^^^^^^^^^^^^^^^^^^^^^^^ TypeError: 'NoneType' object is not iterable
根据最后一行的错误信息显示,该方法用于从OCR(光学字符识别)结果中提取并过滤文本框信息,生成一个包含有效文本框详细信息的列表,猜测您上传的图片中仅有icon而没有对应的文本框,我也实际进行了错误的复现,错误信息与您提供的错误信息是一致的,根据官方介绍,模型的训练基于icon以及对应的icon描述作为结构的。猜测这是局限性的地方,如有错误请多指教
我的也是这种情况,但是我的最开始时torch版本不匹配,重装了torch ,按照上面说的关了clash还是不生效,于是重启了电脑,重新进入conda env启动,然后识图几十秒出结果