mirror

Results 5 comments of mirror

同学你好, decoder你成功保存了吗 :(

> 老哥,感谢!我用了你的代码,现在在msra数据集的句子长度截断了,但是训练时依然会报OOM,不知道你有没有遇到? > > ``` > train:7026 > train max_seq_len:387 > train max_lex_num:233 > train max_seq_lex:601 > test max_seq_len:351 > test max_lex_num:231 > test max_seq_lex:572 > loading vocabulary file /home/llq/.fastNLP/embedding/bert-chinese-wwm/vocab.txt...

同疑惑,Flat 为什么不多层训练,是因为效果不好吗。

遇到了同样的问题, 在seq_len_to_mask函数中加上max_seq_len 作为第二个参数即可解决。打印出来看会发现是mask 是char长度的,需要mask的tensor是max 长度的。在seq_len_to_mask这个函数中,max_len 这个参数默认为None了。加上就好。

> 用的和之前的中文NER论文一样,我们的论文也引用了,在table2的caption里 感谢