crawlab
crawlab copied to clipboard
v 0.6.0 版本 爬虫卡住, 停止后无法启动新任务
Bug 描述 v 0.6.0 版本 原先 v 0.5.0 版本不会卡死。
复现步骤 该 Bug 复现步骤如下
- 爬虫不知道为什么卡死,然后之后任务全部变成待定。
- 把运行中的任务和待定任务全部停止,然后重启容器。
- 启动新任务还是待定。
期望结果 为什么会卡死,怎么样能启动新的任务。
截屏

日志可以导出一份么
已经重新拉了一遍最新的docker镜像。日志都没了。下次吧
先关闭,后面出现了再reopen
scrapy爬虫没有结束
不清除mongo 数据库里面的数据无法开始新的任务,就算没有运行中的任务并且重新拉取了crawlab 和 mongo 镜像。看页面是否需要提供对mongo 中的数据有个操作来让我可以开始新的任务。
请问你解决了吗,我也遇到 了这个问题
你解决了,我也遇到了这个问题
没有,需要定时清理卡死的脚本。如果攒了太多再关闭就不行了。
duplicated in https://github.com/crawlab-team/crawlab/issues/1160