ENMF icon indicating copy to clipboard operation
ENMF copied to clipboard

This is our implementation of ENMF: Efficient Neural Matrix Factorization (TOIS. 38, 2020). This also provides a fair evaluation of existing state-of-the-art recommendation models.

Results 5 ENMF issues
Sort by recently updated
recently updated
newest added

Excuse me, after training by the default arguments, I get the recall and NDCG score, but the result isn't as good as the report in the paper. Here is my...

Hi,thanks for sharing the code. With your source code unmodified (dropout: 0.5, neg-weight: 0.5), I have tried on ml-1m and get the following results: First col: Recall Second col: NDCG...

看到你们有比较Dual Channel Hypergraph Collaborative Filtering这篇文章提出的DHCF方法,想来请教一下。 这篇文章似乎存在一些问题。首先公式6和公式16对不上,到底\Theta是应该乘在哪里不明确,按描述似乎公式16是符合图2的。公式8这个min函数比较的对象似乎不对,标量1和矩阵进行比较,个人觉得这个形式有问题。我的理解是k>1返回power,不大于1返回单位矩阵。其次item的2阶可达用户构造的incidence matrix (i.e. HH^TH)已经十分密集了,就文章所用到的movielens数据集而言,2阶Incidence matrix基本上非0的已经很少了。item数量稍大的情况下,需要存储一个size为M^2的dense matrix,没有扩展性可言,运算量也较大。为每个batch单独构造一个incidence matrix虽然可行,但对比LightGCN这样的方法,效率低下。 文章构造hyperedge的方法也非常heuristic,divide-and-conquer只在摘要引言和结论出现过,怎么体现到方法中的,感觉也没有讲。我个人按论文复现后按作者的实验设置放到LastFM数据集上运行,效果也远逊NGCF。不知道您怎么看这篇文章以及DHCF这个方法。

您好,看完ENMF的论文后有两个疑问: 1.ml-1m的数据集的validation data是ml.train.txt中每个用户交互序列的最后一个吗 2.另外,我发现和官网的数据集有不一样,这个数据集是经过什么方法处理过的吗

您好,我看到ENMF与LightGCN 和NBPO等方法,但我发现ENMF代码中recall指标的计算与其他几种方法没有对齐。我想确定您给定的ENMF结果是使用下面第一种还是第二种的结果? 第一种:ENMF中使用的是len(hit_items) / min(topk, len(ground_truth)) 第二种使用的是 len(hit_items) / len(ground_truth),如下 NBPO: https://github.com/Wenhui-Yu/NBPO/blob/master/Library.py#L14 LightGCN: https://github.com/kuandeng/LightGCN/blob/master/evaluator/python/evaluate_foldout.py#L20