NER-BERT-pytorch icon indicating copy to clipboard operation
NER-BERT-pytorch copied to clipboard

PyTorch solution of named entity recognition task Using Google AI's pre-trained BERT model.

Results 21 NER-BERT-pytorch issues
Sort by recently updated
recently updated
newest added

您的项目本身是非常好的,文档的指引说明也很详细 我自己pytorch-pretrained-bert采用0.4.0,在项目的msra上f1是80左右,在自己的数据上就只有十几了 另外冒昧问一下这个pytorch-pretrained-bert的官方文档可否给个指引,以及这个和huggingface的关系是什么

batch size: 32 GPU: RTX 2080Ti torch: 1.7.1 其他都一样,参数用的默认params.json里的,能分享一下你的超参嘛,谢谢

你好,开发者们: bert-base-chinese-pytorch 模型的pytorch dump 无法下载,能否单独发一下?谢谢 邮箱:[email protected]

使用的是原始数据,但是用的是新的Pytorch和transformers , 但是f1值 只能达到50%左右。 而且这值 是micro还是macro?

Traceback (most recent call last): File "run.py", line 138, in run() File "run.py", line 134, in run train(train_loader, dev_loader, model, optimizer, scheduler, config.model_dir) File "/home/ym/test2/CLU/BERT-LSTM-CRF/train.py", line 47, in train train_epoch(train_loader,...

我在interactive.py中调用了txt中,每次读取一行来给一句话打标签,想请问以下一开始结果还挺正确,为什么到后面就逐渐将空字符识别成MISC、LOC什么的。。(‘’,‘MISC’) 再重新运行的时候还是以前的错误结果了 要重新下载一遍文件夹再去用单句的input输入,结果才会很好... 这是为什么呢...

How do you deal with the very long sentences in the dataset?