Batch_Parallel_LatticeLSTM
Batch_Parallel_LatticeLSTM copied to clipboard
您好,那个bigram可以不用么
您好,原作者bigram好像没用,只用了word和字,这个bigramPath我设置成None,则会显示错误,应该是函数中如果为空,则embedding【bigram】就不存在,就会导致错误,请问下怎么不用bigram。 因为原作者这个bi的词向量给的百度云网盘一直没有速度,如果您不方便解决,是否可以提供bi的词向量的连接,谢谢!!
1.可以在命令行参数中设置--use_bigram为False 2.https://github.com/jiesutd/LatticeLSTM 这里有谷歌硬盘的链接
您好,我知道这个连接,但是这个谷歌没有bi词向量,只有另两个
那你就慢慢下或者冲个百度云会员吧,不过中文NER中 bigram一般都很重要,不用它会差很多个点
您好,我修改了--use_bigram False,但是还是不行, 错误如下:model = LatticeLSTM_SeqLabel_V1(embedding['char'],embedding['bigram'],embedding['word']) KeyError:'bigram'
谢谢,我已经解决了,主要是不熟悉那个cache部分,跑weibo的时候前面cache代码没有改。还有我问过原作者,他说他后来不用bi了,说是直接用gaz匹配,我也不清楚是个什么原理
可以的,这两天我比较忙,抱歉。加入词汇信息的时候,bigram的确不是那么有必要了
您好,我修改了--use_bigram False,但是还是不行, 错误如下:model = LatticeLSTM_SeqLabel_V1(embedding['char'],embedding['bigram'],embedding['word']) KeyError:'bigram'
我有相同的问题,我跑微博数据集的时候也出现了相同的报错,大佬可以告诉我更改哪里吗