Char-RNN-TensorFlow
Char-RNN-TensorFlow copied to clipboard
Multi-language Char RNN for TensorFlow >= 1.2.
你好,想请教个问题。 我的运行下来,报错在 y_reshaped = tf.reshape(y_one_hot, self.logits.get_shape()) 因为y_one_hot和self.logits的总元素数量不同,所以不能reshape。 我推算了一下: 1. inputs的shape是(num_seqs, num_steps),经过tf.one_hot以后,lstm_inputs的shape变成(num_seqs, num_steps, num_classes) 2. 我用的是cell是一层的lstm,lstm_inputs经过tf.nn.dynamic(cell, lstm_inputs, initial_state=self.initial_state)后,lstm_outputs的shape是(num_seqs, num_steps, lstm_size) 3. lstm_outputs经过tf.concat(lstm_outputs, 1)以后,shape没有任何变化,再经过一些列运算后,shape就会有问题。 所以想问一下tf.concat(lstm_outputs, 1)这一步是做什么的? 感谢~
支持断点继续训练,若未达到目标次数会按照最后一次保存的模型继续训练;若已经到达目标次数,会直接停止。 支持TF2.0,并未改动大多数代码,只是启用了TF2.0已经弃用的1.0功能,并且关闭了2.0的功能。 ``` import tensorflow.compat.v1 as tf tf.disable_v2_behavior() ``` 增加了predict功能,给出start_string。 ``` python predict.py \ --converter_path model/torch_gen/converter.pkl \ --checkpoint_path model/torch_gen \ --max_length 1500 \ --start_string " raise " ``` 会输出如下结果: ```...
File "C:/Users/HP/PycharmProjects/CharRnn/sample.py", line 20, in main FLAGS.start_string = FLAGS.start_string.decode('utf-8') AttributeError: 'str' object has no attribute 'decode'
如题,报错找不到data/**.txt文件路径,怎么解决
新手,看不太懂,请教一下,谢谢
您好,看完您的代码之后,我有一些不太能够理解的地方,希望您能帮我解决一下。 1. 为什么英文字母就用one-hot就行了,而中文就需要用embedding层。不同的英文单词之前也是应该有联系的吧? 2. 为什么embedding层使用的是一个随机变量来查找出单词的vector。这样的话,每个词的向量表示,不就是随机的了吗?那这个词有什么具体的含义呢?
https://github.com/hzy46/Char-RNN-TensorFlow/blob/7d23f2f1b436afbd5baf67af466d3b5a72f04b71/read_utils.py#L19 根据我的理解,y是标签,x是特征?那么为什么y是x里所有列**循环右移**的结果呢?y的最后一列为什么是同一batch里x的第一列呢?不应该是下一个batch里x的第一列吗?
这个代码的主要目的是预测下一个char。 ``` def sample(self, n_samples, prime, vocab_size): samples = [c for c in prime] sess = self.session new_state = sess.run(self.initial_state) preds = np.ones((vocab_size, )) # for prime=[] for c in...
\read_utils.py", line 26, in batch_generator y[:, :-1], y[:, -1] = x[:, 1:], x[:, 0] TypeError: 'NoneType' object does not support item assignment
你好,我的模型能够在训练集上拟合较好,但是在采样时却得不到这样通顺的句子,采样的方式也是采用了np.random.choice()方法,只训练了1000个epoch因为在当训练到几百次时即使用来学习率衰减loss也没有下降了。请问有关这个问题有什么解决思路吗