seq2seq_chatbot
seq2seq_chatbot copied to clipboard
有没有把输入端的<pad>给mask掉?
在使用tf.contrib.legacy_seq2seq.embedding_attention_seq2seq()进行训练时,并没有提供输入句子的长度,这意味着每一个pad也都被当作一个token被输入进encoder了?请问有没有把输入端多余的pad给mask掉?
还有,想问一下输入端为何要倒序输入?
代码注释里面说明,麻烦先看清楚代码