text-classification-cnn-rnn
text-classification-cnn-rnn copied to clipboard
CNN-RNN中文文本分类,基于TensorFlow
如何添加文本其他特征信息到网络里呢,进而增加准确度?比如文本的位置信息
 我使用的自己的语料库进行训练,结果第一轮开始后出了个结果,后续再也没有迭代轮次,而且因为一直没有变化导致模型训练提前终止,我想问一下是不是我的语料导致训练过程过拟合了?我应该怎么去修改?
您好,我今天尝试运行了一下代码,跑出来Train Acc很低,只有10%左右。参数如下: train: 3000, test: 500, validate: 500, vocab_size: 2500, batch_size: 100 能指导一下是哪边出的问题吗?谢谢!
Configuring CNN model... Configuring TensorBoard and Saver... Loading training and validation data... Traceback (most recent call last): File "run_cnn.py", line 198, in train() File "run_cnn.py", line 80, in train x_train,...
如题,请问下如何画图,抱歉本人小白,感谢哈!!
作者你好,我今天在网上看了一篇text cnn的文章,和项目中的思路有较大的区别,不清楚你这边有没有做过相关的对比 https://towardsdatascience.com/nlp-learning-series-part-3-attention-cnn-and-what-not-for-text-classification-4313930ed566 文中对于卷积核的使用思路是,卷积同时覆盖多个(1,2,3,5个)词,使用卷积提取词之间的特征,最后用于分类,项目中的卷积结构更多的是提取flatten后词向量的局部特征,从直觉上感觉太过于局限在word(character) embedding部分,是否有尝试过这两种方式之间的差异?
进程被杀死
样本大的时候 产生val.txt文件大 到2G以上啦 这样建词汇表 是不是建不出来?是不是内存不够的关系?大概要什么配置才能顺利跑完所有数据? 是不是需要分布式建立?还是能训练结果逐步更新追加? 谢谢!
请问,楼主有没有遇到过在训练时python run_cnn.py train 开始后,只训练计算得到1个epoch 结果,就停止训练了? 我检查了显卡的显存占用,发现没有出现内存泄露问题。继而又尝试了两种显存的分配方式,①分配了0.4的显存 ②自动适应分配。得到的结果和上面一样,均只训练一个epoch就停止了。 Configuring TensorBoard and Saver... Loading training and validation data... Time usage: 0:00:11 2019-06-03 11:40:30.224462: I c:\users\user\source\repos\tensorflow\tensorflow\core\common_runtime\gpu\gpu_device.cc:1405] Found device 0 with properties: name: GeForce...
<PAD>
在数据处理部分,没用到吗? 训练集id很稀疏,只有字典存在的词才有, 还有就是 embedding = tf.get_variable('embedding', [self.config.vocab_size, self.config.embedding_dim]) embedding_inputs = tf.nn.embedding_lookup(embedding, self.input_x) 这个词向量是随机生成的,在训练过程中会训练这部分吗?
`loss_train, acc_train = session.run([model.loss, model.acc], feed_dict=feed_dict)` 这句代码放在 `session.run(model.optim, feed_dict=feed_dict) # 运行优化` 这句代码的前面,如果执行了`if total_batch % config.print_per_batch == 0:`里的代码,那么运行优化步骤的dropout就变成了1.0了不是吗?