tf_repos
tf_repos copied to clipboard
TensorFlow Script
lambdaji你好~一直有关注你的知乎和tf_repos,最近在实践中利用DeepFM实现了一个排序模型,想请教一个实际运用的问题,请问你在实际运用中是否会出现GPU利用率的问题?我这边在训练过程利用率始终在10%以下,如果单GPU资源利用都达不到100%,分布式也就没意义了。。。我用的是Tesla P40,显存有24G,显存应该不是瓶颈,数据规模field有81,feature index大约是百万级,对利用率问题一直不解,还望指教,多谢!
原始数据如: 1 a,b,c,0.1,0.2,0.3 类似于这种?
我下载了数据集,但是aliccp文件里面读取数据部分和数据集命名,格式都不同,无法处理,请问是否更换了数据集? criteo数据集里只有reademe.txt,train.txt,test.txt,并没有aliccp中的*-*命名,其中也没有“,”分隔符
165行左右,构建deep全连接时,给变量都加上了l2正则 y_deep = tf.contrib.layers.fully_connected(inputs=deep_inputs, num_outputs=1, activation_fn=tf.identity, \ weights_regularizer=tf.contrib.layers.l2_regularizer(l2_reg), scope='deep_out') 然后在189行左右定义损失函数 loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=y, labels=labels)) + \ l2_reg * tf.nn.l2_loss(FM_W) + \ l2_reg * tf.nn.l2_loss(FM_V) 我理解,上面的损失函数没有把前面通过weights_regularizer正则的变量取出来 所以应该改成 loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=y, labels=labels))...
get_criteo_feature.py中的特征下标应该是从1开始的,PNN.py中直接使用idx,这样的话使用tf.nn.embedding_lookup进行embedding是从0开始?
拜读了您的大作,有一个问题想请教下:我看您这边的data process逻辑,都是做成了“类似FM二阶部分, 统一做embedding, 离散特征val=1.0”的libsvm格式,但是根据您的wide&deep的模型代码,input_fn中是直接parse csv,是否没有按照libsvm格式来处理?
when i run the deepfm in the distribute mode, an error happened: No worker known as /job:chief/replica:0/task:0 could you help me~
目前的实现在最终效果上有一些问题 。。
hi,请问一下,你使用的python和tensorflow的版本分别是什么?