weilong-Tian
weilong-Tian
Caused by op 'cnn/conv/conv1d/Conv2D', defined at: File "text_test.py", line 74, in model = TextCNN(config) File "/root/tensorflow/text_model.py", line 44, in __init__ self.cnn() File "/root/tensorflow/text_model.py", line 52, in cnn conv= tf.layers.conv1d(embedding_inputs, self.config.num_filters,...
但是我跑的是你用来的测试的那个数据集,词表是5000,应该没问题的吧,
不行,我是在GPU上跑的,vocab_size设置成3000还是同样的错误;我运行 text-rnn-cnn那个的时候值用了一个GPU,也没有遇到这个问题,现在vocab_size设置3000,4个GPU还是这个错误,所以我觉得不应该是内存的问题. 报错是这个: conv= tf.layers.conv1d(embedding_inputs, self.config.num_filters, self.config.kernel_size, name='conv') 但是,我看着是没有问题的呀,train 没问题,test遇到问题了,
感谢大佬解答,
很奇怪的是,如果我指定CPU进行test的时候,很快,而且可以正常运行,
Bi-LSTM和Bi-GRU差别不大吧,只是GRU的训练速度更快,目前看到的NER的最好的就是LSTM+CRF,中英文的都是,
我用的1.8的,可以支持的
那么输入的是词还是句子,可以提供下code参考下吗?谢谢
Run initial.py first,will generate files you need
用word2vec训练的vec.txt,那么训练集是一个个的分词吗?