ET-BERT
ET-BERT copied to clipboard
The repository of ET-BERT, a network traffic classification model on encrypted traffic. The work has been accepted as The Web Conference (WWW) 2022 accepted paper.
作者您好,在论文中,您最后给出的APP可视化的结果中,关于FileTransfer的有两个App分别是是FTPS和SFTP,可是在您提供的标签那张图中,这两个却是vpn通道下的,请问您用的是vpn通道下的FTPS和SFTP数据吗 ?这又是为什么呢?
problem appears at line:46 ``` def deal_finetuning(excluding_label): ... label_number = 120 .... ``` According to `.tsv` files, label index starts from 0 and 120 labels are used in total, `label_number`...
We tested your model using the ISCX VPN 2016 dataset. The ISCX VPN 2016 dataset is divided into "VPN" and "nonVPN" categories. Within the "VPN" category, all applications' pcaps except...
data = f.read(2^20)是否应该是data = f.read(2**20) 还有一个问题,model下的encrypted_vocab.txt是哪里生成的?是用vocab_process下的main.py吗?encrypted_vocab.txt是否与corpora下的encrypted_vocab_all.txt类似的,只是通过不同的burst文件生成的?
变量`tls13_pcap_dir`缺少定义 ```python def pcap_preprocess(): ... while start_date
作者你好,请问在只有数据流的情况下,比如去除TLS 1.3中server hello等握手阶段的报文,或者FTP数据流,ET-BERT模型能够做到正确的识别吗?还是必须要依赖于一些控制流的信息?
您好,我遵循您项目中./data_process/main.py,使用该文件将pcap转换成tsv文件时,得到的dataset.json文件中,有一些类别的sample并不能在您公开的tsv文件中找到,而另一些类别的sample则可以在公开的tsv文件中找到。由于我机器的内存限制,我在data_generation.generation时,修改了get_feature_packet中的for packet in packets,使其只访问前十个packet就返回,请问这可能会导致这一问题吗? 此外,我尝试用做了以上修改得到的tsv文件进行训练,但得到的sample只有大约四万个,远赶不上您公开的tsv文件中的约四十万个,同时这样训练出的模型准确率也极低,请问您对这一奇怪的问题有什么可能的解决思路吗,谢谢