seq2seq_chatbot icon indicating copy to clipboard operation
seq2seq_chatbot copied to clipboard

有没有把输入端的<pad>给mask掉?

Open zgahhblhc opened this issue 5 years ago • 1 comments

在使用tf.contrib.legacy_seq2seq.embedding_attention_seq2seq()进行训练时,并没有提供输入句子的长度,这意味着每一个pad也都被当作一个token被输入进encoder了?请问有没有把输入端多余的pad给mask掉?

还有,想问一下输入端为何要倒序输入?

zgahhblhc avatar Jan 22 '19 03:01 zgahhblhc

代码注释里面说明,麻烦先看清楚代码

yjyGo avatar Apr 14 '19 07:04 yjyGo