Batch_Parallel_LatticeLSTM icon indicating copy to clipboard operation
Batch_Parallel_LatticeLSTM copied to clipboard

您好,那个bigram可以不用么

Open TianlinZhang668 opened this issue 5 years ago • 7 comments

您好,原作者bigram好像没用,只用了word和字,这个bigramPath我设置成None,则会显示错误,应该是函数中如果为空,则embedding【bigram】就不存在,就会导致错误,请问下怎么不用bigram。 因为原作者这个bi的词向量给的百度云网盘一直没有速度,如果您不方便解决,是否可以提供bi的词向量的连接,谢谢!!

TianlinZhang668 avatar Dec 09 '19 11:12 TianlinZhang668

1.可以在命令行参数中设置--use_bigram为False 2.https://github.com/jiesutd/LatticeLSTM 这里有谷歌硬盘的链接

LeeSureman avatar Dec 09 '19 11:12 LeeSureman

您好,我知道这个连接,但是这个谷歌没有bi词向量,只有另两个

TianlinZhang668 avatar Dec 09 '19 11:12 TianlinZhang668

那你就慢慢下或者冲个百度云会员吧,不过中文NER中 bigram一般都很重要,不用它会差很多个点

LeeSureman avatar Dec 09 '19 11:12 LeeSureman

您好,我修改了--use_bigram False,但是还是不行, 错误如下:model = LatticeLSTM_SeqLabel_V1(embedding['char'],embedding['bigram'],embedding['word']) KeyError:'bigram'

TianlinZhang668 avatar Dec 09 '19 11:12 TianlinZhang668

谢谢,我已经解决了,主要是不熟悉那个cache部分,跑weibo的时候前面cache代码没有改。还有我问过原作者,他说他后来不用bi了,说是直接用gaz匹配,我也不清楚是个什么原理

TianlinZhang668 avatar Dec 09 '19 15:12 TianlinZhang668

可以的,这两天我比较忙,抱歉。加入词汇信息的时候,bigram的确不是那么有必要了

LeeSureman avatar Dec 09 '19 15:12 LeeSureman

您好,我修改了--use_bigram False,但是还是不行, 错误如下:model = LatticeLSTM_SeqLabel_V1(embedding['char'],embedding['bigram'],embedding['word']) KeyError:'bigram'

我有相同的问题,我跑微博数据集的时候也出现了相同的报错,大佬可以告诉我更改哪里吗

houyuchao avatar Mar 27 '24 11:03 houyuchao