GXKIM
GXKIM
> 请问下下载使用官方给的那个命令吗?为什么我使用那个命令一直下载前面4个part,后面的都没反应,谢谢 同
> 我下载出来是240G呢。 下了也毛用没有。。没硬件8XA100,搞不动啊 要是方便的话,可以共享吗?试了n多次,只能下载一部分
> 要是方便的话,可以共享吗?试了n多次,只能下载一部分 要是方便的话,可以共享吗?试了n多次,只能下载一部分
都,俩模型都启动了 Xuye Qin ***@***.***>于2025年4月21日 周一17:25写道: > 是 GOT-OCR2 还是 vl 我看你有俩截图? > > 另外,贴一下服务端日志。 > > — > Reply to this email directly, view it on GitHub > , >...
> 那是你之前有一个 9997 把。看下,把全部都停了重新试下。 ###command XINFERENCE_ENABLE_VIRTUAL_ENV=1 nohup xinference-local --host 0.0.0.0 --port 8007 & xinference launch --model-name GOT-OCR2_0 --model-type image --model_path /models/GOT-OCR2_0 --gpu-idx 1 -e http://xxxx:8007 ###log The above exception was...
> 那是你之前有一个 9997 把。看下,把全部都停了重新试下。 qwen2.5-vl 可以正常启动  GOT-OCR2还无法正常启动
  transforme也合并进去了,也不用这么老的版本了把
> [@GXKIM](https://github.com/GXKIM) Could you please open Developer Tools (F12) and check which specific request is failing? yes ###image 
I changed to a smaller document and it worked normally. Could it be that there is a size limit for chunks? ###demo  ###local  ###maual chunk 
I have deployed the source code. How can I resolve the issues? Should I modify it here? Change it from GPU to CPU?  bug: onnxruntime.capi.onnxruntime_pybind11_state.RuntimeException: [ONNXRuntimeError] : 6 :...