ET-BERT icon indicating copy to clipboard operation
ET-BERT copied to clipboard

The repository of ET-BERT, a network traffic classification model on encrypted traffic. The work has been accepted as The Web Conference (WWW) 2022 accepted paper.

Results 11 ET-BERT issues
Sort by recently updated
recently updated
newest added

大佬,你好,我们拿自己训练的模型,跑另一个相同分布的测试数据,效果很差,模型很容易过拟合,你们发现了吗

help wanted
question

这个预处理的时间较久,作者能否提供多一些经过预处理的数据集!

help wanted

作者您好,在论文中,您最后给出的APP可视化的结果中,关于FileTransfer的有两个App分别是是FTPS和SFTP,可是在您提供的标签那张图中,这两个却是vpn通道下的,请问您用的是vpn通道下的FTPS和SFTP数据吗 ?这又是为什么呢?

question

problem appears at line:46 ``` def deal_finetuning(excluding_label): ... label_number = 120 .... ``` According to `.tsv` files, label index starts from 0 and 120 labels are used in total, `label_number`...

We tested your model using the ISCX VPN 2016 dataset. The ISCX VPN 2016 dataset is divided into "VPN" and "nonVPN" categories. Within the "VPN" category, all applications' pcaps except...

data = f.read(2^20)是否应该是data = f.read(2**20) 还有一个问题,model下的encrypted_vocab.txt是哪里生成的?是用vocab_process下的main.py吗?encrypted_vocab.txt是否与corpora下的encrypted_vocab_all.txt类似的,只是通过不同的burst文件生成的?

变量`tls13_pcap_dir`缺少定义 ```python def pcap_preprocess(): ... while start_date

作者你好,请问在只有数据流的情况下,比如去除TLS 1.3中server hello等握手阶段的报文,或者FTP数据流,ET-BERT模型能够做到正确的识别吗?还是必须要依赖于一些控制流的信息?

您好,我遵循您项目中./data_process/main.py,使用该文件将pcap转换成tsv文件时,得到的dataset.json文件中,有一些类别的sample并不能在您公开的tsv文件中找到,而另一些类别的sample则可以在公开的tsv文件中找到。由于我机器的内存限制,我在data_generation.generation时,修改了get_feature_packet中的for packet in packets,使其只访问前十个packet就返回,请问这可能会导致这一问题吗? 此外,我尝试用做了以上修改得到的tsv文件进行训练,但得到的sample只有大约四万个,远赶不上您公开的tsv文件中的约四十万个,同时这样训练出的模型准确率也极低,请问您对这一奇怪的问题有什么可能的解决思路吗,谢谢