MultiTurnDialogZoo
MultiTurnDialogZoo copied to clipboard
Multi-turn dialogue baselines written in PyTorch
我按照Daildydialog预处理那样处理了ubuntu,得到了3800000条数据,其中max_len按照给到的默认值(或平均值,效果都是seq2seqNoAttention> hred)。但是按照您的代码跑下的结果: seq2seq: BLEU-1:0.1361 BLEU-2:0.0493 BLEU-3:0.0221 BLEU-4:0.0108 hred: BLEU-1:0.1307 BLEU-2:0.0486 BLEU-3:0.0214 BLEU-4:0.0108 取消attention,我是直接去了input_outputs[-1]。 请问您使用的时候遇到过这个问题吗?或者作者您认为原因是什么,期待您的回复~
The **preprocess script** for **Ubuntu corpus** can not be found under **data/data_process** folder.
您好,很棒的工作! 我在用您的代码跑评测数据,数据集用的是dailydialog,模型选择的是Transformer 但是报了这样的错“RuntimeError: The size of tensor a (31) must match the size of tensor b (30) at non-singleton dimension 0 ” 您知道怎么解决吗?
I observed that when the Test PPL of the model stopped falling, the other test results would still rise. For example, when the epoch is 22, Valid Loss and Test...
您好,看了您的代码之后对encoder部分的这个不是很明白,能方便解释一下这行代码的意义或者作用吗
Hi, I tried running the Seq2Seq and HRED models on dialydialog dataset. Here are the results I got: Model Seq2Seq Result BLEU-1: 0.215 BLEU-2: 0.0986 BLEU-3: 0.057 BLEU-4: 0.0366 ROUGE:...
Hi! Thank you for your work on this repo. So after all your testing, what is the best architecture in terms of quality of generation?
你好,感谢你的工作,这对我的帮助很大。我想将这些模型使用到中文数据集上,只需要按照英文数据集的格式,然后使用jieba这种分词工具进行分词就可以了吧?