Haochen Liu
Results
1
issues of
Haochen Liu
在使用tf.contrib.legacy_seq2seq.embedding_attention_seq2seq()进行训练时,并没有提供输入句子的长度,这意味着每一个pad也都被当作一个token被输入进encoder了?请问有没有把输入端多余的pad给mask掉? 还有,想问一下输入端为何要倒序输入?