Bert-TextClassification icon indicating copy to clipboard operation
Bert-TextClassification copied to clipboard

Implemention some Baseline Model upon Bert for Text Classification

Results 19 Bert-TextClassification issues
Sort by recently updated
recently updated
newest added

为什么BERT后面接了CNN / LSTM效果更好呢?是因为BERT encode能力不够吗?(显然不是)这其中有什么原理吗?谢谢

Exception has occurred: FileNotFoundError [Errno 2] No such file or directory: 'outputs/outputBertLSTM/BertLSTM/config.json' File "/data_sas/mz/3_Geobert_tasks/Bert-TextClassification/main.py", line 139, in main bert_config = BertConfig(output_config_file) File "/data_sas/mz/3_Geobert_tasks/Bert-TextClassification/run_SST2.py", line 45, in main(config, config.save_name, label_list)

你好,首先感谢你的分享。 在代码中模型保存在.output/ 下,日志在.log/目录下,但是我完整运行run_xx.py后,发现output和log文件下什么都没有,请问是怎么回事呢

我在复现代码的时候,总是报错'bert-vocab-file'is not defined ,想请教一下,该怎么解决

我想走一下 Bert + CNN 的SST-2 数据的分类效果。 但是上来就报出 GPU 溢出,我换了公司服务器还是溢出,公司显存 10.75 G 我想知道这是为什么,是确实溢出还是说代码哪里我需要调整呢?

您好,想知道和代码BERTRCNN匹配的论文可以提供一下获取方式吗

您好,我看您数据集有中文的也有英文的。但中英文取token的方式不是不一样吗?英文是wordpiece,中文是直接切分,我没看到您的代码中有做相关的处理。或是我对您的代码理解有误?

Thanks for sharing, but I got some problems for BertOrigin model (others as well) Firstly, I copy the `config.json` into `.sst_output`, then this error appeared. It seems like a very...

之前自己也做过分类问题 多分类的错误地用了liner进行分类 今天使用仓库代码发现在几万的新数据集上准确率非常高 还是只是BERTorigin 因为是比赛数据集 去看了比赛第一名的准确率 低了5 6个点 看了代码发现classifier用的是liner 代码应该需要改成softmax才对