【已解决】卡在20%,停止运行,cpu利用率2%
日志最近的一个报错信息: heygem-f2f | [2025-03-16 22:36:44] [process.py[line:108]] [ERROR] [[ccebcbe1-27ab-4b10-89e6-b92faa86d507]任务视频驱动队列满,严重阻塞,下游队列异常]
然后除此之外,一直重复打印日志: heygem-f2f | [2025-03-16 22:58:54] [_internal.py[line:96]] [INFO] [172.18.0.1 - - [16/Mar/2025 22:58:54] "GET /easy/query?code=ccebcbe1-27ab-4b10-89e6-b92faa86d507 HTTP/1.1" 200 -] heygem-f2f | [2025-03-16 22:58:56] [_internal.py[line:96]] [INFO] [172.18.0.1 - - [16/Mar/2025 22:58:56] "GET /easy/query?code=ccebcbe1-27ab-4b10-89e6-b92faa86d507 HTTP/1.1" 200 -] heygem-f2f | [2025-03-16 22:58:58] [_internal.py[line:96]] [INFO] [172.18.0.1 - - [16/Mar/2025 22:58:58] "GET /easy/query?code=ccebcbe1-27ab-4b10-89e6-b92faa86d507 HTTP/1.1" 200 -] heygem-f2f | [2025-03-16 22:59:00] [_internal.py[line:96]] [INFO] [172.18.0.1 - - [16/Mar/2025 22:59:00] "GET /easy/query?code=ccebcbe1-27ab-4b10-89e6-b92faa86d507 HTTP/1.1" 200 -]
You can download the latest version of the client. It already supports deleting tasks that are in - progress of generation and tasks in the queue.
您可以下载最新版本的客户端,已经支持对生成中和排队中的任务进行删除
你好,最新版本客户端可以删除任务,请问如何解决“任务视频驱动队列满,严重阻塞,下游队列异常]”这个问题,视频每次生成到20%就会失败
你好,最新版本客户端可以删除任务,请问如何解决“任务视频驱动队列满,严重阻塞,下游队列异常]”这个问题,视频每次生成到20%就会失败
我尝试单独把f2f的镜像删掉然后单独再拉取(注释docker-compose-yml的其他镜像相关代码),可以解决这个问题,但是终归治标不治本。
我目前已经解决这个问题,解决方案就是下载CUDA 参考连接:https://blog.csdn.net/changyana/article/details/135876568
然后重新下载客户端,重新启动,就好了。
重新拉镜像能解决问题
我目前已经解决了这个问题,解决方案就是下载CUDA 参考连接:https://blog.csdn.net/changyana/article/details/135876568
然后重新下载客户端,重新启动,就好了。
你好我按照你说的但是还是卡在百分之20不懂 cuda我也重新下载了客户端我也重新安装了但是还是不行
频驱动队列满,严重阻塞,下游队列异常]
我遇到同样的问题. 最后加了32G内存,解决了.
增大--cpus参数能解决阻塞问题
增大--cpus参数能解决阻塞问题
请问如何设置?
增大--cpus参数能解决阻塞问题
请问如何设置?
如果你是docker run起的docker,直接加上--cpus=4,如果是docker-compose,可以参考下图修改。
增大--cpus参数能解决阻塞问题
请问如何设置?
如果你是docker run起的docker,直接加上--cpus=4,如果是docker-compose,可以参考下图修改。
大佬请问这个文件在哪里 我在HeyGem.ai-main\deploy 这个文件夹下的docker-compose 文件中 并没找到这几项参数
大概这样就行了?你自己试一下吧
i5,内存32g,3060TI,能用了,但是要等超级久,而且最后完成的时候cpu会狂转,吓一跳
你好,最新版本客户端可以删除任务,请问如何解决“任务视频驱动队列满,严重阻塞,下游队列异常]”这个问题,视频每次生成到20%就会失败
我尝试单独把f2f的镜像删掉然后单独再拉取(注释docker-compose-yml的其他镜像相关代码),可以解决这个问题,但是终归治标不治本。
确实管用,估计就是模型坏了