chatbot
chatbot copied to clipboard
chatbot回复内容只有一个字 “我” ...
你好,我代码拉下来之后,先运行data_util.py,再运行execute.py进行训练,结束后运行app,网页测试机器人回复,结果不管我发什么,它就一直回复一个字“我”。 代码上我没改动,就是为了解决gbk报错时,我把getConfig.py 中的read操作指定utf8编码parser.read(config_file,encoding='utf-8'),同样的,data_utile.py中,也加了utf编码,seq_train = open(gConfig['seq_data'],'w', encoding='UTF-8')
tensorflow2.3.0 python3.7.6
我运行之后,回复内容也只有一个“我”o(╥﹏╥)o
你提到: 同样的,data_utile.py中,也加了utf编码,seq_train = open(gConfig['seq_data'],'w', encoding='UTF-8')
在data_utile.py中,没有发现seq_train = open(gConfig['seq_data']语句呀。
我的问题是:seq.data文件能发给我吗? 楼主的文件链接不对。谢谢。
QQ:28481340
你提到: 同样的,data_utile.py中,也加了utf编码,seq_train = open(gConfig['seq_data'],'w', encoding='UTF-8')
在data_utile.py中,没有发现seq_train = open(gConfig['seq_data']语句呀。
我的问题是:seq.data文件能发给我吗? 楼主的文件链接不对。谢谢。
QQ:28481340
在seq2seq.ini里面有
你提到: 同样的,data_utile.py中,也加了utf编码,seq_train = open(gConfig['seq_data'],'w', encoding='UTF-8')
在data_utile.py中,没有发现seq_train = open(gConfig['seq_data']语句呀。
我的问题是:seq.data文件能发给我吗? 楼主的文件链接不对。谢谢。
QQ:28481340
我的seq.data是用tf2.0的data_util.py产出的。原始语料xiaohuangji可以到tf1.0下面找,看着都是用的一份数据。
感谢。data_util.py生成了seq.data文件了。 我试了TF1.0、TF2.0,把代码搞混了。
多谢指点。
请问seq.data生成之后由内容吗?
我的是空文件
楼主解决了嘛?我也是刚参考这个。我之前训练的是seq2seq的LSTM,gru都没用,然后使用one-hot编码,使用了50万句对话也是结果回复相同,很郁闷,然后来参考这个git,研究这个git的代码,然后看到你也是同样问题
楼主解决了嘛?我也是刚参考这个。我之前训练的是seq2seq的LSTM,gru都没用,然后使用one-hot编码,使用了50万句对话也是结果回复相同,很郁闷,然后来参考这个git,研究这个git的代码,然后看到你也是同样问题
你解决没,我也是跟你一样之前训练LSTM,结果回复都是你,然后来看这个git,结果训练完tf2.0这个,回复全是空白
我自己把语料库加到50万条,但是感觉很多回复要么相同,要么空白,因为target_token.index_word[predicted_id] == 'end'造成
楼主解决了嘛?我也是刚参考这个。我之前训练的是seq2seq的LSTM,gru都没用,然后使用one-hot编码,使用了50万句对话也是结果回复相同,很郁闷,然后来参考这个git,研究这个git的代码,然后看到你也是同样问题
你解决没,我也是跟你一样之前训练LSTM,结果回复都是你,然后来看这个git,结果训练完tf2.0这个,回复全是空白
我自己也是把语料库加到50万条,而且语句边长了许多,但是感觉很多回复要么相同,要么空白,因为target_token.index_word[predicted_id] == 'end'造成,曾咋整
这是没有加载训练好的模型 但是加载了 也和不准 不知道什么原因