xray
xray copied to clipboard
卡住不动
这种是什么情况
这显然是出现了异常,师傅后面还碰到过这样的情况吗?或者还记得当时是怎样触发的这个问题吗?
如果还能复现,可以反馈一下,我会积极跟进的
这显然是出现了异常,师傅后面还碰到过这样的情况吗?或者还记得当时是怎样触发的这个问题吗?
如果还能复现,可以反馈一下,我会积极跟进的
一直占内存,只要是批量扫描,就会出现这种情况,扫描的时候,前面的不停止,然后线程一直在加
能说一下你使用的版本和运行的命令吗?我尝试复现一下
能说一下你使用的版本和运行的命令吗?我尝试复现一下
1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html
能说一下你使用的版本和运行的命令吗?我尝试复现一下
1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html
理论上来讲,这个命令应该是错的,因为--basic-crawler后面应该跟上的是一个url,而不是另一个命令,我们是暂不支持这样的写法的
能说一下你使用的版本和运行的命令吗?我尝试复现一下
1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html
理论上来讲,这个命令应该是错的,因为--basic-crawler后面应该跟上的是一个url,而不是另一个命令,我们是暂不支持这样的写法的
可是之前一直是这么用的,也能顺利运行,只是txt里面的url数量到十几个往上,就会卡住
Can you tell me what version you are using and what command you are running? I try to reproduce
1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html
Theoretically speaking, this command should be wrong, because --basic-crawler should be followed by a url, not another command, we do not support this way of writing for the time being
then how --url-file cmd can be used? i've try to run --url-file in many many ways but didn't success can you explain how we can scan a list of URL in a text file with Xray
Can you tell me what version you are using and what command you are running? I try to reproduce
1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html
Theoretically speaking, this command should be wrong, because --basic-crawler should be followed by a url, not another command, we do not support this way of writing for the time being
then how --url-file cmd can be used? i've try to run --url-file in many many ways but didn't success can you explain how we can scan a list of URL in a text file with Xray
url
, listen
, raw-request
,url-file
,basic-crawler
,browser-crawler
,这些命令都只能单独使用,所以如果想要使用url-file
,可以./xray ws --uf xxx.txt
,也可以在前面指定想要启动的插件(./xray ws --poc poc-yaml-xxxx --uf xxx.txt
),不然就会默认按照配置文件进行主动扫描。
需要注意的是,当这样启动扫描后,xray将只会主动扫描列表上的url,并不携带任何的爬虫行为,所以这一模式只适合对某一个poc进行验证(后续版本可以变成多个poc)
所以如果想要批量的扫描一系列的目标,还是推荐使用rad主动爬虫+xray被动扫描的形式,现在rad也已经支持对一个url file进行识别并批量爬虫,欢迎体验
Can you tell me what version you are using and what command you are running? I try to reproduce
1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html
Theoretically speaking, this command should be wrong, because --basic-crawler should be followed by a url, not another command, we do not support this way of writing for the time being
then how --url-file cmd can be used? i've try to run --url-file in many many ways but didn't success can you explain how we can scan a list of URL in a text file with Xray
url
,listen
,raw-request
,url-file
,basic-crawler
,browser-crawler
,这些命令都只能单独使用,所以如果想要使用url-file
,可以./xray ws --uf xxx.txt
,也可以在前面指定想要启动的插件(./xray ws --poc poc-yaml-xxxx --uf xxx.txt
),不然就会默认按照配置文件进行主动扫描。需要注意的是,当这样启动扫描后,xray将只会主动扫描列表上的url,并不携带任何的爬虫行为,所以这一模式只适合对某一个poc进行验证(后续版本可以变成多个poc)
所以如果想要批量的扫描一系列的目标,还是推荐使用rad主动爬虫+xray被动扫描的形式,现在rad也已经支持对一个url file进行识别并批量爬虫,欢迎体验
xray 与 rad 进行了深度融合,你又说 rad 已经支持 url file 的模式 那么正确的命令是? xray webscan --browser-crawler --url-file file.txt
Can you tell me what version you are using and what command you are running? I try to reproduce
1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html
Theoretically speaking, this command should be wrong, because --basic-crawler should be followed by a url, not another command, we do not support this way of writing for the time being
then how --url-file cmd can be used? i've try to run --url-file in many many ways but didn't success can you explain how we can scan a list of URL in a text file with Xray
url
,listen
,raw-request
,url-file
,basic-crawler
,browser-crawler
,这些命令都只能单独使用,所以如果想要使用url-file
,可以./xray ws --uf xxx.txt
,也可以在前面指定想要启动的插件(./xray ws --poc poc-yaml-xxxx --uf xxx.txt
),不然就会默认按照配置文件进行主动扫描。 需要注意的是,当这样启动扫描后,xray将只会主动扫描列表上的url,并不携带任何的爬虫行为,所以这一模式只适合对某一个poc进行验证(后续版本可以变成多个poc) 所以如果想要批量的扫描一系列的目标,还是推荐使用rad主动爬虫+xray被动扫描的形式,现在rad也已经支持对一个url file进行识别并批量爬虫,欢迎体验xray 与 rad 进行了深度融合,你又说 rad 已经支持 url file 的模式 那么正确的命令是? xray webscan --browser-crawler --url-file file.txt
因为rad是最近版本才开放的这个功能,所以这个功能和xray还没有很好的配合,后续会优化一下。
目前的正确命令是:
./xray ws --listen 127.0.0.1:7777
./rad --uf xxx.txt --http-proxy 127.0.0.1:7777
目前rad的最新版在这里下载:https://stack.chaitin.com/tool/detail?id=2 版本稳定后会更新在github上