chatbot icon indicating copy to clipboard operation
chatbot copied to clipboard

chatbot回复内容只有一个字 “我” ...

Open xiaoQinGe opened this issue 4 years ago • 11 comments

你好,我代码拉下来之后,先运行data_util.py,再运行execute.py进行训练,结束后运行app,网页测试机器人回复,结果不管我发什么,它就一直回复一个字“我”。 代码上我没改动,就是为了解决gbk报错时,我把getConfig.py 中的read操作指定utf8编码parser.read(config_file,encoding='utf-8'),同样的,data_utile.py中,也加了utf编码,seq_train = open(gConfig['seq_data'],'w', encoding='UTF-8')

tensorflow2.3.0 python3.7.6

xiaoQinGe avatar Sep 04 '20 02:09 xiaoQinGe

我运行之后,回复内容也只有一个“我”o(╥﹏╥)o

sshimii avatar Sep 21 '20 10:09 sshimii

你提到: 同样的,data_utile.py中,也加了utf编码,seq_train = open(gConfig['seq_data'],'w', encoding='UTF-8')

在data_utile.py中,没有发现seq_train = open(gConfig['seq_data']语句呀。

我的问题是:seq.data文件能发给我吗? 楼主的文件链接不对。谢谢。

QQ:28481340

hnbigfish avatar Oct 13 '20 08:10 hnbigfish

你提到: 同样的,data_utile.py中,也加了utf编码,seq_train = open(gConfig['seq_data'],'w', encoding='UTF-8')

在data_utile.py中,没有发现seq_train = open(gConfig['seq_data']语句呀。

我的问题是:seq.data文件能发给我吗? 楼主的文件链接不对。谢谢。

QQ:28481340

在seq2seq.ini里面有

sshimii avatar Oct 13 '20 08:10 sshimii

你提到: 同样的,data_utile.py中,也加了utf编码,seq_train = open(gConfig['seq_data'],'w', encoding='UTF-8')

在data_utile.py中,没有发现seq_train = open(gConfig['seq_data']语句呀。

我的问题是:seq.data文件能发给我吗? 楼主的文件链接不对。谢谢。

QQ:28481340

我的seq.data是用tf2.0的data_util.py产出的。原始语料xiaohuangji可以到tf1.0下面找,看着都是用的一份数据。

jonecherry avatar Oct 13 '20 09:10 jonecherry

感谢。data_util.py生成了seq.data文件了。 我试了TF1.0、TF2.0,把代码搞混了。

多谢指点。

hnbigfish avatar Oct 13 '20 09:10 hnbigfish

请问seq.data生成之后由内容吗?

nuandongtuzi avatar Oct 27 '20 07:10 nuandongtuzi

我的是空文件

nuandongtuzi avatar Oct 27 '20 07:10 nuandongtuzi

楼主解决了嘛?我也是刚参考这个。我之前训练的是seq2seq的LSTM,gru都没用,然后使用one-hot编码,使用了50万句对话也是结果回复相同,很郁闷,然后来参考这个git,研究这个git的代码,然后看到你也是同样问题

hei-my avatar Jan 14 '21 07:01 hei-my

楼主解决了嘛?我也是刚参考这个。我之前训练的是seq2seq的LSTM,gru都没用,然后使用one-hot编码,使用了50万句对话也是结果回复相同,很郁闷,然后来参考这个git,研究这个git的代码,然后看到你也是同样问题

你解决没,我也是跟你一样之前训练LSTM,结果回复都是你,然后来看这个git,结果训练完tf2.0这个,回复全是空白

xuguox avatar Apr 21 '21 04:04 xuguox

我自己把语料库加到50万条,但是感觉很多回复要么相同,要么空白,因为target_token.index_word[predicted_id] == 'end'造成

楼主解决了嘛?我也是刚参考这个。我之前训练的是seq2seq的LSTM,gru都没用,然后使用one-hot编码,使用了50万句对话也是结果回复相同,很郁闷,然后来参考这个git,研究这个git的代码,然后看到你也是同样问题

你解决没,我也是跟你一样之前训练LSTM,结果回复都是你,然后来看这个git,结果训练完tf2.0这个,回复全是空白

我自己也是把语料库加到50万条,而且语句边长了许多,但是感觉很多回复要么相同,要么空白,因为target_token.index_word[predicted_id] == 'end'造成,曾咋整

pandason125 avatar May 07 '21 01:05 pandason125

这是没有加载训练好的模型 但是加载了 也和不准 不知道什么原因

taptapme avatar Jul 09 '21 05:07 taptapme