seq2seq_chatbot
seq2seq_chatbot copied to clipboard
基于seq2seq模型的简单对话系统的tf实现,具有embedding、attention、beam_search等功能,数据集是Cornell Movie Dialogs
开发平台是Ubuntu18.04,更改了模型文件的路径到本地,但是在训练时不产生任何模型文件,请问是什么原因造成的呢?提供的已经训练好的模型文件里面的四个文档,都是在训练时主动产生的吗?
seq2seq.py的第15行 Linear = rnn_cell_impl._Linear # pylint: disable=protected-access,invalid-name
tf version.1.0.0
在Mac和Windows上跑通了,把issue里说的model_checkpoint_path解决了
你好,代码里都没有tensorboard的代码,你怎么画的图呀
> > How old are you? Replies ---------------------------------------> relied relied relied relied relied relied relied relied relied relied relied relied relied relied relied relied relied burning relied relied relied relied...
在使用tf.contrib.legacy_seq2seq.embedding_attention_seq2seq()进行训练时,并没有提供输入句子的长度,这意味着每一个pad也都被当作一个token被输入进encoder了?请问有没有把输入端多余的pad给mask掉? 还有,想问一下输入端为何要倒序输入?