GPT2-chitchat
GPT2-chitchat copied to clipboard
作者你好,我用了单轮语料进行训练,但是仍然可以进行多轮对话,所以我想问问,这个多轮对话的机制是什么,我在您代码里面看到了history[],还有我单轮训练语料训练出来的多轮对话前后的语句存在联系性或者相关性吗?谢谢
No description provided.
有个参数是max_history_len, 代码我没看的特别细, 之前也是因为多轮的原因. 把这个参数改成1试试呢, 应该是这个吧
@zcuuu 虽然我并非作者,也没有认真研读训练的方法,但就我个人的理解,使用单轮语料训练,并不会对多轮对话直接产生关连性。
而多轮机制的机制,是把过去输入的 text
和 bert_response
的 ids
用 [SEP]
串接,作为 model
的输入,用以预测下句回复。
这个是两回事,训练只负责按照history生成,至于是一轮对话还是无限对话,可以修改interact.py的代码来改