h4ckforfun
h4ckforfun
It could be a network problem. Try setting the timeout option ``` conf.request_timeout = 3 ```
> 大佬请解答一下,这么大的项目也不可能去改代码. > 执行到Use crawl mode的时候, > Traceback (most recent call last): > File "C:\me\tool\dirmap\lib\controller\engine.py", line 44, in scan > bruter(target) > File "C:\me\tool\dirmap\lib\controller\bruter.py", line 564, in bruter > payloads.all_payloads...
@Y4nTsing 请问你的target.txt中有多少行记录呢?
@printerr 爬取到的目标网站url越多,动态生成的字典越大,造成了占用大量内存的问题。暂无解决方案。
@maybe-why-not 1. 貌似统计数量是请求数量。线程数量!=请求数量。 2. 在开启递归模式的情况下,内存确实会占用过大,目前递归异常停止条件还不够完善(只判断url长度过长停止)。

`_(:з」∠)_` Flag倒啦
能具体说说需求吗?需要实现的具体功能,例如: 1. 扩展用于做什么? 2. 加载的对应字典是什么样子的字典,能给出具体例子吗?
@evilwing 你好, 1. 如果是针对单个网站 单个扩展名,已经能通过选择`字典模式`中的详细配置实现了。 2. 如果是针对多个网站 自动识别扩展,再进行加载对应字典扫描的话,暂未实现。考虑加入后续开发计划