July
July
# V1与V0的不同在于,V1在当前位置完全无lexicon匹配时,会采用普通的lstm计算公式, # 普通的lstm计算公式与杨杰实现的lattice lstm在lexicon数量为0时不同 这是原作者在代码里面提到的,应该就是区别吧。
同想知道,而且还有个疑问,在mosules.py这个文件中,关于MultiInputLSTMCell这个类的forward函数中,skip_mask是指的什么呀?而且在forward中是做了什么操作呢?
> > 同想知道,而且还有个疑问,在mosules.py这个文件中,关于MultiInputLSTMCell这个类的forward函数中,skip_mask是指的什么呀?而且在forward中是做了什么操作呢? > > 由于对batch中的每个example,它们在当前位置的lexicon数目各不相同,于是需要去mask对应的注意力权重,以使他们不attend pad 谢谢您的回复,那我如果想把这里的LSTM改成GRU,这个skip_mask需要变吗?
> 在问题分类的功能里,训练模型的时候要一个question_train.txt',可以共享一下么。谢谢 同求
> 您好,请问crime_qa用的word embedding(word_vec_300.bin)的训练数据集是哪个啊,训练方法用的是什么呢?谢谢 这个博主前面有回答过噢 给的是网盘的链接 可以下载