NLP-practice-program
NLP-practice-program copied to clipboard
力求囊括主流NLP模型练手项目,不断更新中
怎么不更新了老哥,感觉你写的小项目很不错,上手很快
作者你好,我在看写的4-seq2seq_summary_burner的summary_burner.py代码时,对于你去掉summary的最后个word还是不理解。看到你注释里说到的b站视频,可以给个链接吗?谢谢了
你好,我想问一下,skip gram项目下的数据是来自哪里?我看了一下里面一个标点符号都没有。而且没有段落,感觉是被人处理过的。正常情况做词向量的训练应该是一个自然段一个自然段的数据吧,不会像这样直接给出1亿个单词的文件。
按照示例中我们有的是三维的: `[n_seqs, n_sequencd_length, lstm_num_units]` 现在要变成二维的: `[n_seqs * n_sequencd_length, lstm_num_units]` 是不是应该在第0维度上进行拼接?axis=0而不是axis=1? 比如我有下面的数据: `t1 = [ [[0,1],[2,3],[3,4],[4,5]], [[5,6],[6,7],[7,8],[8,9]], [[9,10],[10,11],[11,12],[12,13]] ] t2=tf.concat(t1,axis=0) with tf.Session() as sess: sess.run(tf.global_variables_initializer()) print(sess.run(t2)) # t2是[[ 0 1] [...