lambdaji

Results 26 comments of lambdaji

#step1 log to libsvm sample sh get_join_sample.sh #step2 stat sample & feature(可以跳过) sh get_stat_feat.sh #step3 remap feat_id(去掉低频特征,可以跳过) sh get_remap_fid.sh #step4 libsvm to tfrecords python get_tfrecord.py --threads=10 --input_dir=./ --output_dir=./

run_dist.sh?

启动脚本发来看看

这个问题不太好定位具体的原因。在训练样本相同的情况下,至少还有两个因素值得探讨: #1 模型capacity 模型的学习/表达能力,能学多少 #2 trainability 可训练性,这是一个优化问题,能不能找到一个“好”的解;很多模型架构的表达能力都是同等的,性能上的差异都是由于某些结构比其他架构更容易优化导致的。 你说的理论上更高,应该指的是DeepFM的表达能力更强;但是可训练性问题也是客观存在的,比如调参。当然,也不排除代码有bug。 PS:有同学反馈FM part输出K为向量与Deep-part concat起来送入输出层有进一步提升。

应该是模型或者batch比较大,还没计算完eval已经开始了,调整下 EvalSpec的参数

我们场景网络规模没那么大,没上GPU,给不了你实用的建议。参考下https://zhuanlan.zhihu.com/p/31558973

DIN用的不是criteo数据集,参考DeepMTL