Zhou Xin
Zhou Xin
确实~ VI情况下虽然有 :出现, 但是写入内容后不能搜索。
@kkkchan Hi, could u sharing the script on how to process the ACM dataset? The original processing_dblp.py cannot run.
嗯,谢谢回复! 如果可以,您那边方便跑一下EHCF_Sin的代码吗?(现在的版本真跑不出来论文中的结果 :( ) 我会看看ENMF的。谢谢啦~ > 我不太清楚你是怎么把loss跑成nan的 这边的不是loss为nan,而是代码最后的: > print(np.mean(recall50), np.mean(ndcg50)) > print(np.mean(recall100), np.mean(ndcg100)) > print(np.mean(recall200), np.mean(ndcg200)) 希望您那边能检查一下代码! 论文核心推导结论是公式(8),虽然从推导开始是 全样本,但是因为中间作了一些假设,所以才可以简化成公式(8)的样子,而单纯看公式(8)的话,其实是U-I matrix的拟合。
> > > 我不太清楚你是怎么把loss跑成nan的,或许你可以试试https://github.com/chenchongthu/ENMF 的代码,EHCF_Sin和ENMF是一致的。 > > 关于代码核心,我们不仅是做Positive rating的User-Item Matrix拟合,而是在全样本数据上做非采样学习,可以看一下论文里的推导。 我看了ENMF的代码,跟EHCF逻辑和实现上一样,没有看出来有这两个类有什么明显的区别?还请赐教~? ENMF的我正在跑~
> > > 我不太清楚你是怎么把loss跑成nan的,或许你可以试试https://github.com/chenchongthu/ENMF 的代码,EHCF_Sin和ENMF是一致的。 > > 关于代码核心,我们不仅是做Positive rating的User-Item Matrix拟合,而是在全样本数据上做非采样学习,可以看一下论文里的推导。 ENMF我这边是可以跑出来,但是结果跟report的差比较多。
> > > > > 我不太清楚你是怎么把loss跑成nan的,或许你可以试试https://github.com/chenchongthu/ENMF 的代码,EHCF_Sin和ENMF是一致的。 > > > 关于代码核心,我们不仅是做Positive rating的User-Item Matrix拟合,而是在全样本数据上做非采样学习,可以看一下论文里的推导。 > > > > > > ENMF我这边是可以跑出来,但是结果跟report的差比较多。 > > 因为你用的数据不一样 [chenchongthu/ENMF#9](https://github.com/chenchongthu/ENMF/issues/9) 好的,谢谢啦! diff了一下,ENMF和EHCF类的代码完全一样。
@tan90du 谢谢您的反馈! 这个是我当时跑的结果: > Tue 05 Apr 2022 17:03:39 INFO Parameters: ['seed', 'n_layers', 'dropout', 'reg_weight']=(999, 4, 0.1, 0.001), > Valid: recall@5: 0.1835 recall@10: 0.2930 recall@20: 0.4059 recall@50: 0.5795 ndcg@5: 0.1367...
另外不同的硬件、软件环境也有一定的影响,建议您那边grid search一下最优参数。
Hello你好~ 不好意思回复晚了! 我又检查了一下,[SelfCF](https://dl.acm.org/doi/pdf/10.1145/3591469) 论文中没有SimpleX模型啊~?
May be they have better performance? Appreciate if you can contribute with more non-GNN models in this repo. Currently, non-GNN models include: `ItemKNNCBF`, `VBPR`.