h4ckforfun

Results 9 comments of h4ckforfun
trafficstars

It could be a network problem. Try setting the timeout option ``` conf.request_timeout = 3 ```

> 大佬请解答一下,这么大的项目也不可能去改代码. > 执行到Use crawl mode的时候, > Traceback (most recent call last): > File "C:\me\tool\dirmap\lib\controller\engine.py", line 44, in scan > bruter(target) > File "C:\me\tool\dirmap\lib\controller\bruter.py", line 564, in bruter > payloads.all_payloads...

@Y4nTsing 请问你的target.txt中有多少行记录呢?

@printerr 爬取到的目标网站url越多,动态生成的字典越大,造成了占用大量内存的问题。暂无解决方案。

@maybe-why-not 1. 貌似统计数量是请求数量。线程数量!=请求数量。 2. 在开启递归模式的情况下,内存确实会占用过大,目前递归异常停止条件还不够完善(只判断url长度过长停止)。

![image](https://user-images.githubusercontent.com/39022267/171359564-1ba7e5fe-1908-4f1b-adf1-c94e802184b7.png)

能具体说说需求吗?需要实现的具体功能,例如: 1. 扩展用于做什么? 2. 加载的对应字典是什么样子的字典,能给出具体例子吗?

@evilwing 你好, 1. 如果是针对单个网站 单个扩展名,已经能通过选择`字典模式`中的详细配置实现了。 2. 如果是针对多个网站 自动识别扩展,再进行加载对应字典扫描的话,暂未实现。考虑加入后续开发计划