Batch_Parallel_LatticeLSTM icon indicating copy to clipboard operation
Batch_Parallel_LatticeLSTM copied to clipboard

Chinese NER using Lattice LSTM. Reproduction for ACL 2018 paper.

Results 19 Batch_Parallel_LatticeLSTM issues
Sort by recently updated
recently updated
newest added

我用的是人民日报的数据训练的,batch_size为64,效果不好,请您那边训练的时候,batch_size对训练结果的影响怎么样?

您好,我不太了解LatticeLexiconPadder()这个函数,以及skips_l2r等一系列word 和source的含义,谢谢

您好,您用的代码中,gaz是怎么用的,因为我遍历了所有文件,gaz_dropout并没有用到在latticeLSTM的model中,只是声明了一下,是我遗漏了什么么,,同时两个latticeLSTm带不带V1有什么具体区别么?谢谢

I want to save the trained model, and load it for prediction, here is my code: ` saver = ModelSaver("./cache/model_ckpt_100.pkl") # model=ModelLoader.load_pytorch_model("./cache/model_ckpt_100.pkl") ModelLoader.load_pytorch(model,"./cache/model_ckpt_100.pkl") tester = Tester(datasets['test'], model, metrics=AccuracyMetric()) tester.test() `...

您好,原作者bigram好像没用,只用了word和字,这个bigramPath我设置成None,则会显示错误,应该是函数中如果为空,则embedding【bigram】就不存在,就会导致错误,请问下怎么不用bigram。 因为原作者这个bi的词向量给的百度云网盘一直没有速度,如果您不方便解决,是否可以提供bi的词向量的连接,谢谢!!

在load_data.py中load_word_emb函数没有定义

when I run main file, I got an error: ` RuntimeError: It seems like you are not running under a folder governed by fitlog. ` full error is: `Batch_Parallel_LatticeLSTM git:(master)...

您好,想问一下这个错误怎么处理 ![image](https://github.com/LeeSureman/Batch_Parallel_LatticeLSTM/assets/71113002/c8cb8652-4125-497b-96bc-b2d44b3dac55)

如题,使用torch2.0.0,cuda为1.8,但torch版本可能过高导致传入的LRSchduler变成了LambdaLR,这种情况如何解决呢,如果降低torch版本又对应不上cuda......