ARL
ARL copied to clipboard
扫资产速度慢
灯塔我是配置在服务器中,服务器是高性能配置,但是不知道为什么扫资产速度太慢。例如扫描IP段为:1.1.1.1/22。大约用了四个小时,服务器CPU和带宽几乎没跑起来
我来补充一些具体的东西,当然,我感觉速度快是有代价的,比如误报和漏报。
反正都是云服务器,倒是感觉可以牺牲速度换取准确率(反正睡大觉,快慢也感觉不出来)
以下是我的情况,
云服务器配置 :4核4G,docker部署ARL,手工配置近600万子域名字典,1万敏感文件字典。
下图是运行时的服务器资源使用情况(同时多个任务,但可进行参考)
@tiantop
大部分时间都是文件泄露模块占用。
可以手工尝试改下这个配置项。
https://github.com/TophantTechnology/ARL/blob/master/app/services/fileLeak.py#L18
@tiantop
大部分时间都是文件泄露模块占用。
可以手工尝试改下这个配置项。
https://github.com/TophantTechnology/ARL/blob/master/app/services/fileLeak.py#L18
已改用xunfeng
@1c3z 像我这种情况的,师傅能否给我一些建议,提升准确率或者速度的 (晚上睡觉加白天上班的时间,时间比较充裕,所以想增加信息搜集的深度和广度) 可以给我一些建议吗?
我来补充一些具体的东西,当然,我感觉速度快是有代价的,比如误报和漏报。 反正都是云服务器,倒是感觉可以牺牲速度换取准确率(反正睡大觉,快慢也感觉不出来) 以下是我的情况, 云服务器配置 :4核4G,docker部署ARL,手工配置近600万子域名字典,1万敏感文件字典。
下图是运行时的服务器资源使用情况(同时多个任务,但可进行参考)
@cloud-jie 1.现在资产发现工具太卷了,对于一般的SRC自动手段发现的结果并不会给人带来太多的惊喜。 2.另一方面自动化手段也不能做到100%完全发现,需要人工参与,这个每家SRC的情况是不一样的,需要自己积累。 3. 可以考虑对特定的资产进行长时间的监控,等待厂商更新发现新的资产,这个效果怎么样每家SRC的情况也是不一样的。 4. 可以对特定SRC收集一些对于自动化某方面手段缺失的场景,进行人工+半自动化去补充, 这个效果怎么样每家SRC的情况也是不一样的。