hanyegirl
hanyegirl
您好,我想问下discriminator.py文件中loss函数为什么是交叉熵呀,而不是min φ EY ∼pdata [logDφ(Y )] ] EY ∼Gθ [log(1 1 Dφ(Y ))]
代码如下: self.scores = tf.nn.xw_plus_b(self.h_drop, W, b, name="scores")#(?, 2)两列分别代表了为假的概率和为真的概率 self.ypred_for_auc = tf.nn.softmax(self.scores)#(?, 2) self.predictions = tf.argmax(self.scores, 1, name="predictions")#(?,)#0代表预测的是假,1代表预测的是真 # CalculateMean cross-entropy loss with tf.name_scope("loss"): losses = tf.nn.softmax_cross_entropy_with_logits(logits=self.scores, labels=self.input_y) self.loss = tf.reduce_mean(losses)...
我看了这篇论文,好不容易找到您写的源代码,对我来说真是雪中送碳,可是不知道您有没有和其他方法做对比的代码呀
i want to generate a summary ,and the source text is not in the text.bin ,just an ordinary English text,what can i do for this task ,thank you for your...
先是通过双向lstm得到隐藏状态,这是encoder,然后通过decoder也就是lstm将摘要输出,再将这个假摘要和真摘要输入cnn判别网络中得到score,来进行更新判别器吗? 另外我想问下train.bin文件是原文章的二进制表示吗,真实摘要保存在哪里呀
您好,我运行了您的代码,一天才能迭代1万次,而代码好像需要迭代100多万次,请问一下生成对抗网络用于文本这方面的需要的迭代次数或者算力都很高吗