BERT-BiLSTM-CRF-NER
BERT-BiLSTM-CRF-NER copied to clipboard
减少BERT层数,预测结果出现X
我将12层的BERT模型改为6层或者3层,预测有时会出现X的情况,另外预测序列长度小于输入序列长度,请问是怎么回事? 请问如果我想减少BERT的层数,应该在哪些参数上进行调整那?
检查一下小于的序列,看下tokenizer 是不是切错了。
我将12层的BERT模型改为6层或者3层,预测有时会出现X的情况,另外预测序列长度小于输入序列长度,请问是怎么回事? 请问如果我想减少BERT的层数,应该在哪些参数上进行调整那?
同样的问题, 请问你解决了吗, 谢谢
我的序列长度倒是对,就是会出现X的现象
同样参数在kyzhouhzau/BERT-NE没有这个现象,在这里也有X,请问怎么解决的啊
同样参数在kyzhouhzau/BERT-NE没有这个现象,在这里也有X,请问怎么解决的啊
求问,在跑kyzhouhza/BERT-NE的时候出现下面这个错误 absl.flags._exceptions.UnparsedFlagAccessError: Trying to access flag --do_train before flags were parsed 您遇到过吗,我是直接放好模型后进行训练的
我的序列长度倒是对,就是会出现X的现象
你好 我现在运行这个代码也出现了这个问题,能问一下您是怎么解决的吗