Chong Chen
Chong Chen
您好!感谢对我们工作感兴趣。 问题1:是的 问题2,我们没有对movielens-1m有过特殊处理,跟官网的movielens-1m有什么不一样的吗?
哦哦,那可能数据分割之前shuffle过,这没什么影响的
今天又看了一下,和官网不同是因为我们对用户和商品的ID做了一个映射,因为原始数据里用户ID并不是 0~用户数量。为了方便存储,我们先用字典对ID做了一个映射,虽然ID和原始数据不同,但是timestamp排序和连接关系还是一致的
OK,请问邮箱是?
Ok,已经发送了,请查收~
The results NDCG@5, 10, 20 0.2457 0.2475 0.2656 is on ml-lcfn datasets. To compare with LCFN, you need to use the dataset ml-lcfn, which is the same as the data...
Have you ever read the readme carefully? What is your setting of embedding size? For a fair comparison, we also set the embedding size as 128, which is utilized in...
所以我比较好奇跟selfCF的结果差异如何?可否给我一份你的分隔好训练集和测试集的数据呢?
> > 所以我比较好奇跟selfCF的结果差异如何?可否给我一份你的分隔好训练集和测试集的数据呢? > > 附件中是 amazon-games的数据5-core处理完的。 > x_label列是train/valid/test (0/1/2) 的标记,这个数据分隔是按全局时间序来的(SelfCF一样的)。您那边可以测试一下看看效果。 > > [games_processed.csv](https://github.com/chenchongthu/ENMF/files/6859485/games_processed.csv) 谢谢,我大概跑了一下, parser.add_argument('--dropout', type=float, default=0.5, help='dropout keep_prob') parser.add_argument('--negative_weight', type=float, default=0.05, 在第100轮时结果如下: R@20=0.0764 R@50=0.1323 N@20=0.0367 N@50=0.0511 看起来比SelfCF好很多?🤔 R@20=0.0509...
> 嗯,这个结果确实不错。 能分享一下代码不? 谢谢啦! 您那边还是tensorflow吗?~ 代码就还是github上的代码