xray icon indicating copy to clipboard operation
xray copied to clipboard

卡住不动

Open Baikeryoyo opened this issue 2 years ago • 11 comments

image 这种是什么情况

Baikeryoyo avatar Jul 23 '22 12:07 Baikeryoyo

这显然是出现了异常,师傅后面还碰到过这样的情况吗?或者还记得当时是怎样触发的这个问题吗?

如果还能复现,可以反馈一下,我会积极跟进的

Jarcis-cy avatar Dec 07 '22 10:12 Jarcis-cy

这显然是出现了异常,师傅后面还碰到过这样的情况吗?或者还记得当时是怎样触发的这个问题吗?

如果还能复现,可以反馈一下,我会积极跟进的

一直占内存,只要是批量扫描,就会出现这种情况,扫描的时候,前面的不停止,然后线程一直在加

Baikeryoyo avatar Dec 07 '22 11:12 Baikeryoyo

能说一下你使用的版本和运行的命令吗?我尝试复现一下

Jarcis-cy avatar Dec 08 '22 02:12 Jarcis-cy

能说一下你使用的版本和运行的命令吗?我尝试复现一下

1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html

Baikeryoyo avatar Dec 08 '22 17:12 Baikeryoyo

能说一下你使用的版本和运行的命令吗?我尝试复现一下

1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html

理论上来讲,这个命令应该是错的,因为--basic-crawler后面应该跟上的是一个url,而不是另一个命令,我们是暂不支持这样的写法的

Jarcis-cy avatar Dec 13 '22 08:12 Jarcis-cy

能说一下你使用的版本和运行的命令吗?我尝试复现一下

1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html

理论上来讲,这个命令应该是错的,因为--basic-crawler后面应该跟上的是一个url,而不是另一个命令,我们是暂不支持这样的写法的

可是之前一直是这么用的,也能顺利运行,只是txt里面的url数量到十几个往上,就会卡住

Baikeryoyo avatar Dec 13 '22 10:12 Baikeryoyo

Can you tell me what version you are using and what command you are running? I try to reproduce

1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html

Theoretically speaking, this command should be wrong, because --basic-crawler should be followed by a url, not another command, we do not support this way of writing for the time being

then how --url-file cmd can be used? i've try to run --url-file in many many ways but didn't success can you explain how we can scan a list of URL in a text file with Xray

skalvin avatar Dec 21 '22 18:12 skalvin

Can you tell me what version you are using and what command you are running? I try to reproduce

1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html

Theoretically speaking, this command should be wrong, because --basic-crawler should be followed by a url, not another command, we do not support this way of writing for the time being

then how --url-file cmd can be used? i've try to run --url-file in many many ways but didn't success can you explain how we can scan a list of URL in a text file with Xray

url, listen, raw-request,url-file,basic-crawler,browser-crawler,这些命令都只能单独使用,所以如果想要使用url-file,可以./xray ws --uf xxx.txt,也可以在前面指定想要启动的插件(./xray ws --poc poc-yaml-xxxx --uf xxx.txt),不然就会默认按照配置文件进行主动扫描。

需要注意的是,当这样启动扫描后,xray将只会主动扫描列表上的url,并不携带任何的爬虫行为,所以这一模式只适合对某一个poc进行验证(后续版本可以变成多个poc)

所以如果想要批量的扫描一系列的目标,还是推荐使用rad主动爬虫+xray被动扫描的形式,现在rad也已经支持对一个url file进行识别并批量爬虫,欢迎体验

Jarcis-cy avatar Dec 22 '22 09:12 Jarcis-cy

Can you tell me what version you are using and what command you are running? I try to reproduce

1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html

Theoretically speaking, this command should be wrong, because --basic-crawler should be followed by a url, not another command, we do not support this way of writing for the time being

then how --url-file cmd can be used? i've try to run --url-file in many many ways but didn't success can you explain how we can scan a list of URL in a text file with Xray

url, listen, raw-request,url-file,basic-crawler,browser-crawler,这些命令都只能单独使用,所以如果想要使用url-file,可以./xray ws --uf xxx.txt,也可以在前面指定想要启动的插件(./xray ws --poc poc-yaml-xxxx --uf xxx.txt),不然就会默认按照配置文件进行主动扫描。

需要注意的是,当这样启动扫描后,xray将只会主动扫描列表上的url,并不携带任何的爬虫行为,所以这一模式只适合对某一个poc进行验证(后续版本可以变成多个poc)

所以如果想要批量的扫描一系列的目标,还是推荐使用rad主动爬虫+xray被动扫描的形式,现在rad也已经支持对一个url file进行识别并批量爬虫,欢迎体验

xray 与 rad 进行了深度融合,你又说 rad 已经支持 url file 的模式 那么正确的命令是? xray webscan --browser-crawler --url-file file.txt

Baikeryoyo avatar Dec 22 '22 09:12 Baikeryoyo

Can you tell me what version you are using and what command you are running? I try to reproduce

1.8.5 xray.exe webscan --basic-crawler --url-file file.txt --html-output 1.html

Theoretically speaking, this command should be wrong, because --basic-crawler should be followed by a url, not another command, we do not support this way of writing for the time being

then how --url-file cmd can be used? i've try to run --url-file in many many ways but didn't success can you explain how we can scan a list of URL in a text file with Xray

url, listen, raw-request,url-file,basic-crawler,browser-crawler,这些命令都只能单独使用,所以如果想要使用url-file,可以./xray ws --uf xxx.txt,也可以在前面指定想要启动的插件(./xray ws --poc poc-yaml-xxxx --uf xxx.txt),不然就会默认按照配置文件进行主动扫描。 需要注意的是,当这样启动扫描后,xray将只会主动扫描列表上的url,并不携带任何的爬虫行为,所以这一模式只适合对某一个poc进行验证(后续版本可以变成多个poc) 所以如果想要批量的扫描一系列的目标,还是推荐使用rad主动爬虫+xray被动扫描的形式,现在rad也已经支持对一个url file进行识别并批量爬虫,欢迎体验

xray 与 rad 进行了深度融合,你又说 rad 已经支持 url file 的模式 那么正确的命令是? xray webscan --browser-crawler --url-file file.txt

因为rad是最近版本才开放的这个功能,所以这个功能和xray还没有很好的配合,后续会优化一下。

目前的正确命令是: ./xray ws --listen 127.0.0.1:7777 ./rad --uf xxx.txt --http-proxy 127.0.0.1:7777

Jarcis-cy avatar Dec 22 '22 09:12 Jarcis-cy

目前rad的最新版在这里下载:https://stack.chaitin.com/tool/detail?id=2 版本稳定后会更新在github上

Jarcis-cy avatar Dec 22 '22 09:12 Jarcis-cy